WO2024018900A1 - 機器の制御装置、制御システム、及び制御方法 - Google Patents
機器の制御装置、制御システム、及び制御方法 Download PDFInfo
- Publication number
- WO2024018900A1 WO2024018900A1 PCT/JP2023/024985 JP2023024985W WO2024018900A1 WO 2024018900 A1 WO2024018900 A1 WO 2024018900A1 JP 2023024985 W JP2023024985 W JP 2023024985W WO 2024018900 A1 WO2024018900 A1 WO 2024018900A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- command
- time
- difference
- state
- delay
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 15
- 230000005540 biological transmission Effects 0.000 claims abstract description 9
- 238000012937 correction Methods 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 description 31
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
Definitions
- the present invention relates to a control device, a control system, and a control method for equipment used in industry.
- Patent Document 1 An example of a conventional technique for synchronizing multiple devices is described in Patent Document 1.
- a first robot device uses a first time parameter. determining a difference between a first rate of progress and a second rate of progress of the first robotic device along the parameterized path, and modifying execution of the first time-parameterized path based on the determined difference.
- the second rate of progress is the rate of progress of the second robotic device along the second time parameterized path.
- the first robotic device receives a second progress rate from the second robotic device.
- delay time generally differs depending on the device.
- the delay time caused by storage in the buffer may vary from device to device. Therefore, even if the control device simultaneously sends commands to a plurality of devices, the times at which the devices complete the commands may be different for the plurality of devices due to differences in delay times.
- conventional control devices it is difficult to determine such delay times in a plurality of devices, absorb differences in delay times, and synchronize operations.
- An object of the present invention is to provide a device control device, a device control system, and a device control method that can synchronize the operations of a plurality of devices.
- a device control device includes: a command generation unit that generates a command specifying the state of the device at a plurality of times for a plurality of devices; a command transmission unit that transmits the command to the device; a state information receiving unit that acquires state information that is information indicating the state of the device, and a difference between the state of the device in the command and the state of the device in the state information for each time in the command; for each of the devices; A delay time specifying unit that determines a delay time that is the time from when the command transmitting unit transmits the command to the device until the device completes the command, and using the delay time of each of the devices, The device includes a delay difference calculation unit that calculates a delay difference time that is a difference in delay time between the devices, and a timing adjustment unit that adjusts the time at which the command is sent to the device by the delay difference time.
- a device control system includes a control device according to the present invention and a plurality of the devices controlled by the control device.
- a device control method includes a command generation step executed by a control device that controls a plurality of devices to generate a command specifying the state of the device at a plurality of times for the plurality of devices; a command sending step of transmitting the command to the device; a state information receiving step of acquiring state information that is information indicating the state of the device; and a state of the device in the command with respect to each time in the command. , a state comparison step of determining a state difference that is a difference between the state of the device in the state information; and a state comparison step of determining at which time the device completed the command among the times in the command using the state difference.
- a step of determining completion of the command to be sought a step of determining a delay time for each of the devices, determining a delay time that is the time from when the command is sent to the device in the command sending step until the device completes the command.
- a device control device it is possible to provide a device control device, a device control system, and a device control method that can synchronize the operations of a plurality of devices.
- FIG. 2 is a functional block diagram of a control device according to an embodiment of the present invention.
- FIG. 3 is a diagram illustrating an example of a command generated by a command generation unit.
- FIG. 3 is a diagram illustrating an example of status information acquired by a status information receiving unit.
- FIG. 7 is a diagram illustrating an example of time-added state information to which a time information adding unit has added a time. It is a figure showing the composition of a state comparison part.
- FIG. 7 is a diagram illustrating an example of a state difference calculated by a state difference calculation unit.
- FIG. 7 is a diagram illustrating an example of a completion determination result of a command completion determination section.
- FIG. 3 is a diagram illustrating an example of a command generated by a command generation unit.
- FIG. 3 is a diagram illustrating an example of status information acquired by a status information receiving unit.
- FIG. 7 is a diagram illustrating an example of time-added state information to which a time information adding unit
- FIG. 7 is a diagram illustrating an example of a time difference and a delay time determined by a delay time specifying unit.
- FIG. 7 is a diagram illustrating an example of a time difference and a delay time determined by a delay time specifying unit.
- FIG. 6 is a diagram illustrating an example of a delay difference time calculated by a delay difference calculation unit.
- FIG. 6 is a diagram illustrating a time chart illustrating a delay time and a delay difference time, and an example of a method for synchronizing the operations of robot A and robot B.
- FIG. FIG. 3 is a diagram illustrating correction performed by a command correction section.
- FIG. 3 is a diagram showing the configuration of a timing adjustment section.
- FIG. 4 is a diagram illustrating an example of state information expressed by the angle of the axis of the robot and state information expressed by the coordinates of the position of a specific part of the robot.
- FIG. 6 is a diagram showing an example of a state difference expressed by the coordinates of the position of a specific part of the robot.
- FIG. 7 is a diagram illustrating an example of a completion determination result made by a command completion determination unit using a state difference expressed in coordinates.
- the delay time is determined using the current state of the device and the command sent to the device, and the difference in delay time between multiple devices is calculated. is determined as the delay difference time, and the time at which the command is sent to the device is adjusted (for example, delayed) by the delay difference time, thereby making the time at which multiple devices complete the command the same.
- devices to be controlled include devices such as robots (eg, industrial robots), autonomous vehicles, and belt conveyors.
- robots eg, industrial robots
- autonomous vehicles e.g., autonomous vehicles
- belt conveyors e.g., belt conveyors
- a plurality of robots will be exemplified as devices to be controlled.
- the state of the device is at least one of the angle of the position of a predetermined specific part of the device (angle from a predetermined reference position), coordinates, speed, and acceleration. .
- the velocity and acceleration include the velocity and acceleration of angle change and the velocity and acceleration of coordinate change.
- the angle of a joint (axis) of a robot will be described as an example of the state of the device.
- a device control device a device control system, and a device control method according to embodiments of the present invention will be described.
- FIG. 1 is a functional block diagram of a control device 110 according to this embodiment.
- the control device 110 includes, as main components, a command generation section 10, a state information reception section 50, a time information provision section 60, a state comparison section 90, a command completion determination section 100, and a delay time identification section 100. , a delay difference calculation section 80 , a command correction section 20 , a timing adjustment section 30 , and a command transmission section 40 .
- the control device 110 is connected to a plurality of robots 130a to 130c via robot controllers 120a to 120c.
- the control device 110 controls each of the robots 130a to 130c by having the command transmitting unit 40 transmitting commands to the robots 130a to 130c.
- FIG. 1 shows, as an example, an example in which the control device 110 controls three robots 130a to 130c.
- the robot controllers 120a to 120c are connected to the control device 110 and to the robots 130a to 130c, respectively.
- Robot controllers 120a to 120c transmit commands from control device 110 to robots 130a to 130c, respectively, and control robots 130a to 130c.
- the robots 130a to 130c are devices to be controlled by the control device 110, and execute commands transmitted from the control device 110 via the robot controllers 120a to 120c, respectively.
- the robots 130a to 130c drive joints (shafts) of the robots 130a to 130c, respectively, according to commands from the control device 110.
- the robots 130a to 130c may be collectively referred to as the robot 130. Furthermore, in the following description, the robot 130a, the robot 130b, and the robot 130c may be referred to as robot A, robot B, and robot C, respectively.
- the device control system includes a control device 110, robot controllers 120a to 120c, and robots 130a to 130c.
- the robots 130a to 130c can communicate with and are controlled by the control device 110 via robot controllers 120a to 120c.
- control device 110 shown in FIG. 1
- the components of the control device 110 shown in FIG. 1 will be explained.
- the command generation unit 10 generates commands for the plurality of robots 130 based on the actions that each robot 130 should perform.
- the motion to be performed by the robot 130 is, for example, a motion instructed by a user, inputted from the outside, and stored in the control device 110.
- the command is a command that specifies the state of the robot 130 at each of a plurality of times.
- the state of the robot 130 is the angle of the axis of the robot (angle from a predetermined reference position).
- FIG. 2 is a diagram showing an example of the command 11 generated by the command generation unit 10.
- FIG. 2 shows angles at respective times for axis 1, axis 2, and axis 10 of the robot 130a.
- FIG. 2 shows an example of a command 11 in which the axis 1 of the robot 130a is at an angle of 20 degrees at a time of 10 ms and at an angle of 10 degrees at a time of 20 ms. Note that in the command 11 shown in FIG. 2, the robot 130a comes to rest at a time of 40 ms. Therefore, the angles of axis 1, axis 2, and axis 10 are equal at time 40 ms and time 50 ms.
- the status information receiving unit 50 shown in FIG. 1 will be explained.
- the status information receiving unit 50 is an input interface and acquires information indicating the current status of the robot 130.
- information indicating the current state of the robot 130 will also be simply referred to as "state information.”
- the status information can be acquired by a sensor included in the robot 130 or a sensor installed on the robot 130 detecting it from the robot 130, or by a camera installed around the robot 130 photographing the robot 130. .
- the status information receiving unit 50 acquires status information from sensors installed in the robots 130a to 130c via the robot controllers 120a to 120c.
- FIG. 3 is a diagram showing an example of the status information 51 acquired by the status information receiving unit 50.
- FIG. 3 shows, as an example of the state information 51, the angles of the axis 1, axis 2, and axis 10 of the robot 130a.
- the axis 1 of the robot 130a is at a position of 19 degrees
- the axis 2 is at a position of 101 degrees
- the axis 10 is at a position of 329 degrees.
- the time information adding section 60 shown in FIG. 1 will be explained.
- the time information adding unit 60 acquires the status information 51 from the status information receiving unit 50 and adds the time at which the status information receiving unit 50 acquired the status information 51 to the acquired status information 51.
- the state information 51 to which the time has been added will also be referred to as "state information with time.”
- FIG. 4 is a diagram showing an example of time-added state information 61 to which the time information adding unit 60 has added a time.
- FIG. 4 shows, as an example, state information 61 with time, in which 200 ms, which is the time when the state information receiving unit 50 acquired the state information 51, is added to the state information 51 shown in FIG.
- the state comparison section 90 shown in FIG. 1 will be explained.
- the state comparison unit 90 compares the state of the robot 130 in the timed state information 61 and the state of the robot 130 at each of the plurality of times in the command 11, and compares the state in the timed state information 61 and the command 11.
- a state difference which is a difference from the state at each time in command 11, is determined for each time in command 11.
- the state comparator 90 calculates the difference between the value representing the state of the robot 130 in the timed state information 61 and the value representing the state of the robot 130 at each time in the command 11, and converts this difference into Each time in command 11 is determined as a state difference.
- FIG. 5 is a diagram showing the configuration of the state comparison section 90.
- the state comparison section 90 includes a received data acquisition section 91 , a command group acquisition section 92 , a state difference calculation section 93 , and a state difference output section 94 .
- the received data acquisition unit 91 acquires timed state information 61 from the time information assignment unit 60.
- the command group acquisition unit 92 acquires commands 11 (states at each of a plurality of times) for the robot 130, which are generated by the command generation unit 10, from the command generation unit 10.
- the state difference calculation unit 93 acquires the timed state information 61 from the received data acquisition unit 91, and also acquires the command 11 (state at each of a plurality of times) for the robot 130 from the command group acquisition unit 92, The difference between the state in the timed state information 61 and the state at each time in the command 11 is calculated to obtain a state difference.
- the state difference calculation unit 93 calculates the state difference for each time in the command 11.
- the state difference output unit 94 outputs the state difference calculated by the state difference calculation unit 93 to the command completion determination unit 100.
- FIG. 6 is a diagram showing an example of the state difference 97 calculated by the state difference calculation unit 93.
- the state difference calculation section 93 obtains, for example, the timed state information 61 (FIG. 4) from the received data acquisition section 91 and the command 11 (FIG. 2) from the command group acquisition section 92. Then, the state difference calculation unit 93 calculates the difference between the state in the timed state information 61 and the state at each time in the command 11, and obtains the value of the state difference 97 for each time in the command 11. .
- the state difference calculation unit 93 calculates the state according to the timed state information 61 that axis 1 of the robot 130a is at a position of 19 degrees at a time of 200 ms, and the state at a position of 20 degrees at a time of 10 ms.
- the difference between the state and the state according to the command 11 is calculated, and the value of the state difference 97 is determined, which indicates that the difference between the states is -1 degree at time 10 ms.
- the state difference calculation unit 93 determines that the axis 1 of the robot 130a is at a position of 19 degrees at time 200 ms according to the timed state information 61, and at the time 20 ms it is at a position of 10 degrees according to the command 11.
- the difference with the state is calculated, and the value of the state difference 97, which means that the difference between the states is 9 degrees at time 20 ms, is determined.
- the state difference calculation unit 93 similarly calculates the value of the state difference 97 from time 30 ms to time 50 ms in command 11.
- the state difference calculation unit 93 calculates the state difference 97 for each time in the command 11. Note that if the commands at each time can be specified by the numbers assigned to the commands (command numbers), the state difference calculation unit 93 uses the respective command numbers in the command 11 instead of the respective times in the command 11. The value of the state difference 97 may be obtained for. In the command 11 and state difference 97 shown in FIG. 6, the command number is also shown together with the time.
- the command completion determination unit 100 shown in FIG. 1 will be explained.
- the command completion determination unit 100 acquires the state difference 97 for each time in the command 11 from the state comparison unit 90, and uses the state difference 97 to determine the state of the robot 130 (the state indicated by the time-attached state information 61). , find out which time of the times in command 11 the state corresponds to. That is, the command completion determination unit 100 uses the state difference 97 to determine at which time the robot 130 has completed the command among the times in the command 11.
- the command completion determination unit 100 uses an arbitrary method using the state difference 97 to determine at what time in the command 11 the state of the robot 130 corresponds to (that is, at what time in the command 11 the command was completed). ) can be found.
- the state difference 97 is the difference between the state of the robot 130 obtained from the robot 130 and the state of the robot 130 in the command 11, so the smaller the value of the state difference 97, the more the current state of the robot 130 is in the command 11. It can be said that the state is close to that of the robot 130. That is, depending on the magnitude of the value of the state difference 97, it is possible to determine at what time the robot 130 has completed the command among the commands 11.
- the command completion determination unit 100 uses an index indicating how close the state of a specific part of the robot 130 (in this example, the axis) is to the state in command 11 at each time in command 11, and It is possible to determine at what time in the command 11 the state of 130 corresponds to the state at which time in the command 11 (that is, at what time in the command 11 the command was completed).
- the value of this index can be obtained from the value of the state difference 97.
- the command completion determination unit 100 compares the value of this index with a predetermined threshold value to determine whether the state of the robot 130 (the state indicated by the timed state information 61) is at any time in the command 11. You can find out whether it corresponds to the state in .
- FIG. 7 is a diagram showing an example of the completion determination result 101 of the command completion determination unit 100 in this embodiment.
- the completion determination result 101 is the result of the command completion determination unit 100 determining, using the state difference 97, at which time the robot 130 has completed the command among the times in the command 11.
- the command completion determination unit 100 determines whether the robot 130 has completed or not completed the command for each time in the command 11.
- the completion determination result 101 in FIG. 7 shows the time in the command 11, the distance determined by the command completion determination section 100, and the result (completed or incomplete) determined by the command completion determination section 100 based on the distance. There is.
- the distance is an index indicating how close the state of the axis of the robot 130 is to the state in command 11 at each time in command 11.
- the command completion determination unit 100 sums up the absolute values of the state differences 97 for the axes of the robot 130 for each time in the command 11, and uses the calculated total value as the distance.
- the command completion determination unit 100 determines the absolute value (1) of the state difference 97 of axis 1 and the absolute value (1) of the state difference 97 of axis 2 for a time of 10 ms among the times in command 11.
- the absolute value (29) of the value and the absolute value (29) of the value of the state difference 97 of the axis 10 are summed, and the distance is determined to be 59.
- the command completion determination unit 100 similarly determines that the distances are 47, 27, 3, and 3 for times 20 ms, 30 ms, 40 ms, and 50 ms in command 11, respectively.
- the command completion determination unit 100 determines that the robot 130 has completed the command at that time when the calculated distance is less than or equal to a predetermined threshold. That is, the command at the time determined to be completed in the completion determination result 101 of FIG. 7 can be considered to have been completed by the robot 130.
- the command completion determination unit 100 determines that the distance is not completed at times 10ms, 20ms, and 30ms among the times in command 11 because the distance is greater than the threshold, and the distance is less than the threshold at times 40ms and 50ms. Therefore, it is determined that the process is complete. In other words, the command completion determination unit 100 determines that the state of the robot 130 (the state indicated by the timed state information 61) corresponds to the state at time 40 ms and time 50 ms among the times in the command 11.
- the command completion determination unit 100 can determine that one or more of the times in the command 11 are completed, and can also determine that all the times are incomplete.
- the delay time specifying unit 70 shown in FIG. 1 will be explained.
- the delay time identifying unit 70 determines the delay time, which is the time from when the command transmitting unit 40 transmits a command to the robots 130a to 130c until the robots 130a to 130c complete the command.
- the delay time specifying unit 70 determines the time of the timed status information 61 (i.e., the time when the status information receiving unit 50 acquired the status information 51) and each time in the completion determination result 101 (i.e., each time in the command 11). ) is calculated as a time difference. Of the calculated time differences, the delay time identifying unit 70 sets the time difference at the time when the command completion determination unit 100 determines completion among the times of the completion determination result 101 as the delay time. When there are multiple times when completion is determined, the delay time specifying unit 70 sets the time difference between the earliest times among the times when completion is determined as the delay time.
- FIG. 8 is a diagram showing an example of the time difference 71 and delay time 72 determined by the delay time specifying unit 70 in this embodiment.
- the delay time specifying unit 70 calculates the difference between the time of 200 ms in the timed state information 61 and the time of 10 ms in the completion determination result 101 as a time difference of 190 ms. Similarly, the delay time specifying unit 70 determines the difference between the time of 200 ms in the timed status information 61 and the times of 20 ms, 30 ms, 40 ms, and 50 ms in the completion determination result 101 as time differences of 180 ms, 170 ms, 160 ms, and 150ms. In this way, the delay time identifying unit 70 can determine the time difference 71 for each time in the completion determination result 101.
- the delay time specifying unit 70 determines the time difference of 160 ms at the time 40 ms at which the command completion determination unit 100 determines completion among the time differences of 190 ms, 180 ms, 170 ms, 160 ms, and 150 ms, as follows:
- the delay time is assumed to be 72. In the example shown in FIG. 8, since there are two times when it is determined to be complete (time 40 ms and time 50 ms), the delay time specifying unit 70 determines that the time 40 ms is the earliest of the times when it is determined to be complete. Let the time difference of 160 ms be the delay time 72.
- the delay time specifying unit 70 determines the delay time 72 for each of the robots 130a to 130c. Note that when the command completion determination unit 100 determines that all times of the completion determination result 101 (or the command 11) are incomplete, the delay time specifying unit 70 does not calculate the delay time 72. The delay time specifying unit 70 calculates the delay time 72 when the completion determination result 101 includes a time at which completion was determined.
- the time difference 71 and delay time 72 determined by the delay time identifying unit 70 will be explained in the case where there are multiple times when the command completion determining unit 100 determines completion.
- FIG. 9 is a diagram showing an example of the time difference 71 and delay time 72 determined by the delay time specifying unit 70 in this embodiment.
- FIG. 9 shows the timed state information 62 at a time of 210 ms. Therefore, the time difference 71 shown in FIG. 9 is larger than the time difference 71 shown in FIG. 8 by 10 ms.
- the state information 62 with time shown in FIG. 9 differs from the state information 61 with time shown in FIG. 8 in the time at which the state information receiving unit 50 acquires the state information 51, 2 and the angle of axis 10) are the same. That is, the robot 130a is stationary at time 200 ms and time 210 ms, and is in the same state. Furthermore, in the time difference 71 shown in FIG. 9, the time 40 ms is considered to have been used.
- the delay time 72 when the delay time 72 was calculated using the timed state information 61 at the time 200 ms, the time difference of 160 ms at the time 40 ms was set as the delay time 72. Therefore, when calculating the delay time 72 using the timed state information 62 at the time 210ms shown in FIG. is the delay time 72.
- the delay difference calculation unit 80 shown in FIG. 1 will be explained.
- the delay difference calculation unit 80 uses the delay times 72 determined for each of the robots 130a to 130c by the delay time identification unit 70 to determine the difference in the delay times 72 between the robots 130a to 130c as a delay difference time.
- the delay difference calculation unit 80 calculates the delay difference time for each of the robots 130a to 130c.
- the delay difference calculation unit 80 calculates the delay difference time by subtracting the delay time of each of the robots 130a to 130c from the delay time of the robot 130a to 130c having the largest delay time, for example.
- the delay difference time can be considered to be the difference in time required for the robots 130a to 130c to complete the commands between the robots 130a to 130c after the control device 110 sends the commands to the robots 130a to 130c. Can be done. In other words, the delay difference time can be considered to be the difference in time when instructions are completed between the robots 130a to 130c when the control device 110 simultaneously sends the instructions to the robots 130a to 130c.
- FIG. 10 is a diagram showing an example of the delay difference time 81 calculated by the delay difference calculation section 80.
- the delay difference calculation unit 80 inputs the delay time 72 for each of the robots 130a to 130c (robots A to C) from the delay time specifying unit 70.
- the delay time of robot A is 160 ms
- the delay time of robots B and C is 200 ms. Therefore, among the robots A to C, the delay time of robot B and robot C is the largest.
- the delay difference calculation unit 80 calculates the delay difference time 81 for each of the robots A to C by subtracting the delay time of each of the robots A to C from the delay time of robot B (or robot C). In the example shown in FIG. 10, the delay difference calculation unit 80 subtracts the respective delay times 160ms, 200ms, and 200ms of robots A to C from the delay time of robot B of 200ms, and calculates the delay difference of each of robots A to C. The times are determined to be 40 ms, 0 ms, and 0 ms.
- control device 110 calculates the delay time 72 and the delay difference time 81 for a plurality of devices (for example, robots A to C), and changes the time at which a command is sent to the device by the delay difference time 81.
- a description will be given of adjusting (for example, delaying) the times at which multiple devices complete commands at the same time and synchronizing the operations of multiple devices.
- FIG. 11 is a diagram showing a time chart illustrating the delay time 72 and delay difference time 81 of robot A and robot B, and an example of a method for synchronizing the movements of robot A and robot B.
- the control device 110 determines the delay time 72 and delay difference time 81 of the robots A and B during the calibration period.
- the control device 110 transmits commands A and B to the robots A and B, respectively, at time t0 during the calibration period.
- Robot A completes execution of command A at time t1
- robot B completes execution of command B at time t2. Therefore, the delay time tdA of robot A is (t1-t0), and the delay time tdB of robot B is (t2-t0).
- the delay time tdA of robot A is 160 ms
- the delay time tdB of robot B is 200 ms.
- the delay time tdB of robot B is larger than the delay time tdA of robot A (tdB>tdA). Therefore, the delay time difference ⁇ tdA of robot A is (tdB-tdA), and the delay time difference ⁇ tdB of robot B is (tdB-tdB), that is, zero. Therefore, when the control device 110 simultaneously sends commands to robots A and B, robot B completes the command later than robot A by the delay difference time ⁇ tdA.
- the delay difference time ⁇ tdA is 40 ms.
- the control device 110 adjusts the times at which commands are sent to the robots A and B by the delay difference times ⁇ tdA and ⁇ tdB, respectively.
- ⁇ tdB 0ms
- the delay difference time ⁇ tdB is not considered, and the time at which command A is sent to robot A is delayed by the delay difference time ⁇ tdA (40ms) from the time at which command B is sent to robot B. .
- control device 110 can synchronize the operations of the robots A and B by making the time at which the robots A and B complete their commands the same.
- the command correction section 20 shown in FIG. 1 will be explained.
- the command correction unit 20 corrects the command 11 (FIG. 2) generated by the command generation unit 10 by changing the time included in the command 11 using the delay time 72 and delay difference time 81 of the robot 130. do.
- the control device 110 transmits to the robot 130 a command to be completed at a time that is the sum of the delay time 72 and the delay difference time 81 from the current time, at a time that is the delay difference time 81 from the current time. Therefore, the command correction unit 20 changes the command to a command at a later time by the sum of the delay time 72 and the delay difference time 81.
- the control device 110 sends a command A that the robot A completes execution at a time after time t3 by the sum of the delay difference time ⁇ tdA and delay time tdA ( ⁇ tdA+tdA), and causes the robot A to complete the execution at a time after time t3 by the delay difference time ⁇ tdA. Send to A. That is, the control device 110 transmits a command A for robot A to complete at time t6 to robot A at time t4.
- the command correction unit 20 changes the command A at time t3 to the command A at a time after time t3 by the sum of the delay difference time ⁇ tdA and the delay time tdA ( ⁇ tdA+tdA). That is, the command correction unit 20 performs a correction to change the command A at time t3 to the command A at time t6.
- FIG. 12 is a diagram illustrating the correction performed by the command correction section 20.
- the table on the left side shows an example of the command 15 for robot A generated by the command generation unit 10.
- time 0 ms corresponds to time t3 in the time chart of FIG. 11
- time 200 ms corresponds to time t6 in the time chart of FIG.
- the command correction unit 20 converts the command at time 0ms (time t3) to a time 200ms later, which is the sum of delay difference time ⁇ tdA (40ms) and delay time tdA (160ms) from time 0ms, that is, time 200ms (time t6). ) to change the command.
- the control device 110 does not transmit a command to the robot A at a time of 0 ms, but transmits a command at a time of 200 ms. Further, as already explained, the control device 110 transmits the command at the time of 200 ms to the robot A at the time t4.
- the table on the right side shows the command that the control device 110 was to send to the robot A at time t4 due to the correction by the command correction unit 20, that is, the command at time 200 ms.
- the timing adjustment section 30 shown in FIG. 1 will be explained.
- FIG. 13 is a diagram showing the configuration of the timing adjustment section 30.
- the timing adjustment unit 30 includes a delay difference time acquisition unit 31, a command acquisition unit 32, a command holding unit 33, and a timer 34, and adjusts the time at which the command is sent to the robot 130 by the delay difference time 81.
- the delay difference time acquisition unit 31 acquires the delay difference time 81 (FIG. 10) of each of the robots 130a to 130c (robots A to C) from the delay difference calculation unit 80.
- the command acquisition unit 32 acquires commands for each of the robots 130a to 130c. When the command correction unit 20 corrects the command, the command acquisition unit 32 acquires the corrected command from the command correction unit 20. If the command correction unit 20 has not corrected the command, the command acquisition unit 32 acquires the command generated by the command generation unit 10 from the command generation unit 10.
- the command holding unit 33 delays the transmission time of the command acquired by the command acquisition unit 32 for each of the robots 130a to 130c by the delay difference time 81 acquired by the delay difference time acquisition unit 31, and outputs the command to the command transmission unit 40. do.
- the timing adjustment unit 30 adjusts the timing at which the command to the robot 130 is output to the command transmission unit 40, and adjusts the time at which the command is transmitted to the robot 130 by the delay difference time 81.
- the delay difference times of the robots 130a to 130c are 40 ms, 0 ms, and 0 ms, respectively, so the command holding unit 33 does not issue the command to the robot 130a.
- the commands to the robots 130b to 130c are adjusted by 40ms (that is, delayed by 40ms), and then output to the command transmitter 40.
- the command holding unit 33 can measure the length of time for adjusting the command using the timer 34.
- the command transmitter 40 shown in FIG. 1 will be explained.
- the command transmitter 40 is an output interface and transmits the command output from the timing adjuster 30 to the robot 130.
- the robot 130 receives commands transmitted from the command transmitter 40 and is controlled by the control device 110.
- the control device 110 Even if one or both of the command 11 generated by the command generation unit 10 and the status information 51 acquired by the status information reception unit 50 are expressed by the coordinates of the position of a specific part of the robot 130, the control device 110 The delay time 72 and the delay difference time 81 can be obtained in the same manner as when expressed by the angle of the axis.
- the position of the specific part of the robot 130 is, for example, the position of the tip of the arm provided to the robot 130.
- the command 11 is expressed by the coordinates of the position of a specific part of the robot 130
- the state information 51 is expressed by the angle of the axis of the robot 130.
- the status information receiving unit 50 can convert the acquired status information 51 expressed by the angle of the axis of the robot 130 into status information expressed by the coordinates of the position of a specific part of the robot 130.
- the status information receiving unit 50 holds information regarding the structure of the robot 130 (for example, the length of the arms connected to each axis), and can convert the status information 51 using this information. .
- FIG. 14 is a diagram showing an example of state information 51 expressed by the angle of the axis of the robot 130 and state information 55 expressed by the coordinates of the position of a specific part of the robot 130.
- the status information 55 is obtained by the status information receiving unit 50 converting the status information 51.
- FIG. 14 shows, as an example of the state information 55, the coordinates (X, Y, Z) of the position of the tip of the arm included in the robot 130a.
- FIG. 15 is a diagram showing an example of the state difference 99 expressed by the coordinates of the position of a specific part of the robot 130.
- the time information adding unit 60 obtains the timed state information 65 by adding the time when the state information receiving unit 50 acquired the state information 51 to the state information 55 (FIG. 14).
- the command generating unit 10 generates a command 16 expressed by the coordinates (X, Y, Z) of the position of a specific part of the robot 130.
- the state comparison unit 90 obtains a state difference 99 from the timed state information 65 and the command 16.
- the state comparison unit 90 calculates the value of the state difference 99 for each of the X, Y, and Z coordinates.
- FIG. 16 is a diagram illustrating an example of a result (completion determination result 105) made by the command completion determination unit 100 using the state difference 99 expressed in coordinates.
- the distance of the completion determination result 105 is obtained by summing the absolute value of the value of the state difference 99 for the X coordinate, Y coordinate, and Z coordinate for each time in the command 16, that is, for each time in the state difference 99.
- One or both of the command 11 and the status information 51 may be expressed by the velocity or acceleration of the position of a specific part of the robot 130.
- the velocity and acceleration of a position can be obtained by differentiating the coordinates of the position with respect to time (or by finding a difference with respect to time).
- the state information 51 of the robot 130 includes at least one of the position angle (angle from a predetermined reference position), coordinates, velocity, and acceleration of a predetermined specific part of the robot 130.
- the velocity and acceleration include the velocity and acceleration of angle change and the velocity and acceleration of coordinate change.
- the command completion determination unit 100 sets the threshold value used to determine the completion of the command according to this velocity or acceleration. It can also be changed. For example, when the speed is high, the command completion determination unit 100 can increase the threshold value in order to cope with a large change in the position of a specific part of the robot 130.
- the state difference 99 can be determined by arbitrarily predetermined coordinates rather than the coordinates. It is also possible to use the distance between the two points.
- the distance between these two points may be a distance in a two-dimensional space (a distance in an XY plane, a distance in a YZ plane, or a distance in a ZX plane) or a distance in a three-dimensional space.
- the delay time specifying unit 70 determines the delay time obtained at the multiple times.
- the average value, median value, or mode of the time 72 can also be used as the delay time 72.
- These multiple times can be times within a predetermined time interval.
- earlier times can be replaced with later times. For example, a set of times 200ms, 210ms, and 220ms can be changed to a set of times 210ms, 220ms, and 230ms by replacing 200ms with 230ms.
- the control device calculates the delay time 72 using the timed state information 61 and the command 11 sent to the robot 130, and calculates the difference in the delay time 72 between the plurality of robots 130. is determined as the delay difference time 81 and the time at which the command is sent to the robot 130 is adjusted by the delay difference time 81, thereby making the time at which the plurality of robots 130 complete their commands the same and synchronizing the operations of the plurality of robots 130. be able to.
- the present invention is not limited to the above embodiments, and various modifications are possible.
- the above-mentioned embodiments have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to embodiments having all the configurations described.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Manipulator (AREA)
- General Factory Administration (AREA)
- Programmable Controllers (AREA)
Abstract
本発明による機器の制御装置は、複数の機器(130)に対する指令(11)を機器(130)に送信する指令送信部(40)と、機器(130)の状態情報(51)を取得する状態情報受信部(50)と、指令(11)におけるそれぞれの時刻について、指令(11)と状態情報(51)とでの機器(130)の状態の差である状態差分(97)を求める状態比較部(90)と、状態差分(97)を用いて、機器(130)が指令(11)のどの時刻の指令を完了したかを求める指令完了判定部(100)と、機器(130)について、指令送信部(40)が指令(11)を送信してから機器(130)が指令を完了するまでの遅延時間(72)を求める遅延時間特定部(70)と、機器(130)の間での遅延時間(72)の差である遅延差分時間(81)を求める遅延差分計算部(80)と、機器(130)に指令(11)を送信する時刻を遅延差分時間(81)だけ調整するタイミング調整部(30)を備える。
Description
本発明は、産業に用いられる機器の制御装置、制御システム、及び制御方法に関する。
各業界で顧客要求が多様化し、製造業においては開発サイクルの短期化とともに、大量生産や複雑な製品製造への対応が急務となっている。このため、産業用ロボットなどの機器の制御においては、生産性向上のために、同時に多数の機器を制御することが求められている。同時に複数の機器を制御する際には、制御対象である機器間での同期が必要である。例えば、複数のロボットで1つの製品を作るためには、各ロボットが動作タイミングを高精度に合わせる必要がある。
複数の機器を同期させる従来の技術の例は、特許文献1に記載されている。特許文献1に記載された方法では、環境内で移動する複数のエージェントの調和を図り、エージェントが互いに衝突することなく環境内で動作するために、第1のロボットデバイスが、第1の時間パラメータ化経路に沿った第1のロボットデバイスの第1の進捗率と、第2の進捗率との差を決定し、決定された差に基づいて第1の時間パラメータ化経路の実行を修正する。第2の進捗率は、第2の時間パラメータ化経路に沿った第2のロボットデバイスの進捗率である。第1のロボットデバイスは、第2の進捗率を第2のロボットデバイスから受信する。
上述したように、産業用ロボットなどの複数の機器を制御する際には、複数の機器間で動作を同期させること、すなわち指令を同じ時刻で完了させることが必要である。通常、複数の機器は制御装置に制御され、制御装置が指令を送信してから機器が指令を実行して完了するまでには、いくらかの時間(遅延時間)を要する。この遅延時間は、一般に機器ごとに異なる。例えば、制御装置から受信した指令をバッファで保存してから実行するように構成されている機器では、バッファでの保存で生じた遅延時間が機器ごとに異なることがある。このため、複数の機器に対して制御装置が同時に指令を送信しても、機器が指令を完了する時刻は、遅延時間の差異により複数の機器で互いに異なることがある。従来の制御装置では、複数の機器において、このような遅延時間を求め、遅延時間の差異を吸収して動作を同期させることが困難である。
本発明の目的は、複数の機器の動作を同期させることができる、機器の制御装置、機器の制御システム、及び機器の制御方法を提供することである。
本発明による、機器の制御装置は、複数の機器に対し、複数の時刻での前記機器の状態を指定した指令を生成する指令生成部と、前記指令を前記機器に送信する指令送信部と、前記機器の状態を示す情報である状態情報を取得する状態情報受信部と、前記指令におけるそれぞれの時刻について、前記指令での前記機器の状態と、前記状態情報での前記機器の状態との差である状態差分を求める状態比較部と、前記状態差分を用いて、前記機器が、前記指令における時刻のうちどの時刻の指令を完了したかを求める指令完了判定部と、前記機器のそれぞれについて、前記指令送信部が前記機器に前記指令を送信してから前記機器が前記指令を完了するまでの時間である遅延時間を求める遅延時間特定部と、前記機器のそれぞれの前記遅延時間を用いて、前記機器の間での前記遅延時間の差である遅延差分時間を求める遅延差分計算部と、前記機器に前記指令を送信する時刻を前記遅延差分時間だけ調整するタイミング調整部とを備える。
本発明による、機器の制御システムは、本発明による制御装置と、前記制御装置に制御される複数の前記機器とを備える。
本発明による、機器の制御方法は、複数の機器を制御する制御装置が実行し、複数の前記機器に対し、複数の時刻での前記機器の状態を指定した指令を生成する指令生成ステップと、前記指令を前記機器に送信する指令送信ステップと、前記機器の状態を示す情報である状態情報を取得する状態情報受信ステップと、前記指令におけるそれぞれの時刻について、前記指令での前記機器の状態と、前記状態情報での前記機器の状態との差である状態差分を求める状態比較ステップと、前記状態差分を用いて、前記機器が、前記指令における時刻のうちどの時刻の指令を完了したかを求める指令完了判定ステップと、前記機器のそれぞれについて、前記指令送信ステップで前記機器に前記指令を送信してから前記機器が前記指令を完了するまでの時間である遅延時間を求める遅延時間特定ステップと、前記機器のそれぞれの前記遅延時間を用いて、前記機器の間での前記遅延時間の差である遅延差分時間を求める遅延差分計算ステップと、前記機器に前記指令を送信する時刻を前記遅延差分時間だけ調整するタイミング調整ステップとを有する。
本発明によると、複数の機器の動作を同期させることができる、機器の制御装置、機器の制御システム、及び機器の制御方法を提供することができる。
本発明による、機器の制御装置、制御システム、及び制御方法では、複数の機器に対し、制御装置が指令を送信してから機器が指令を完了するまでの時間である遅延時間を求めることができ、この遅延時間の差異を吸収して複数の機器の動作を同期させることができる。より具体的には、本発明による制御装置、制御システム、及び制御方法では、機器の現在の状態と機器に送信した指令を用いて遅延時間を求め、複数の機器の間での遅延時間の差を遅延差分時間として求め、機器に指令を送信する時刻を遅延差分時間だけ調整する(例えば、遅らせる)ことで、複数の機器が指令を完了する時刻を同じにする。
以下、本発明の実施例による、機器の制御装置、機器の制御システム、及び機器の制御方法を、図面を用いて説明する。本発明において、制御対象の機器には、ロボット(例えば、産業用ロボット)、自律走行車両、及びベルトコンベアなどの装置が含まれる。以下の実施例では、制御対象の機器として、複数のロボットを例示する。
以下の実施例において、機器の状態とは、機器の予め定められた特定部分の位置の角度(予め定められた基準位置からの角度)、座標、速度、及び加速度のうちの少なくとも1つである。速度と加速度には、角度の変化の速度と加速度と、座標の変化の速度と加速度が含まれる。以下の実施例では、機器の状態の一例として、ロボットが備える関節(軸)の角度を機器の状態として説明する。
なお、本明細書で用いる図面において、同一のまたは対応する構成要素には同一の符号を付け、これらの構成要素については繰り返しの説明を省略する場合がある。
本発明の実施例による、機器の制御装置、機器の制御システム、及び機器の制御方法を説明する。
図1は、本実施例による制御装置110の機能ブロック図である。本実施例による制御装置110は、主要な構成として、指令生成部10と、状態情報受信部50と、時刻情報付与部60と、状態比較部90と、指令完了判定部100と、遅延時間特定部70と、遅延差分計算部80と、指令補正部20と、タイミング調整部30と、指令送信部40を備える。制御装置110は、ロボットコントローラ120a~120cを介して、複数のロボット130a~130cに接続されている。制御装置110は、指令送信部40がロボット130a~130cに指令を送信することで、ロボット130a~130cのそれぞれを制御する。図1には、一例として、制御装置110が、3台のロボット130a~130cを制御する例を示している。
ロボットコントローラ120a~120cは、制御装置110に接続されるとともに、それぞれロボット130a~130cに接続される。ロボットコントローラ120a~120cは、制御装置110からの指令をそれぞれロボット130a~130cに送信し、ロボット130a~130cを制御する。
ロボット130a~130cは、制御装置110の制御対象の機器であり、それぞれロボットコントローラ120a~120cを介して制御装置110から送信された指令を実行する。例えば、ロボット130a~130cは、制御装置110からの指令に従って、それぞれロボット130a~130cが備える関節(軸)を駆動させる。
以下の説明では、ロボット130a~130cを、ロボット130とまとめて表記することもある。また、以下の説明では、ロボット130a、ロボット130b、及びロボット130cを、それぞれロボットA、ロボットB、及びロボットCと呼ぶこともある。
本実施例による、機器の制御システムは、制御装置110と、ロボットコントローラ120a~120cと、ロボット130a~130cを備える。ロボット130a~130cは、ロボットコントローラ120a~120cを介して、制御装置110と通信可能であり、制御装置110に制御される。
以下では、図1に示した、制御装置110の構成要素について説明する。
指令生成部10は、複数のロボット130に対する指令を、それぞれのロボット130が実行すべき動作に基づいて生成する。ロボット130が実行すべき動作は、例えば、ユーザに指示された動作であり、外部から入力され、制御装置110に保存されている。指令とは、複数の時刻のそれぞれの時刻でのロボット130の状態を指定した命令である。本実施例においてロボット130の状態とは、ロボットが備える軸の角度(予め定められた基準位置からの角度)である。
図2は、指令生成部10が生成した指令11の例を示す図である。図2には、一例として、ロボット130aの軸1と軸2と軸10について、それぞれの時刻における角度を示している。例えば、ロボット130aの軸1は、時刻10msでは20度の角度の位置にあり、時刻20msでは10度の角度の位置にあるという指令11の例を、図2に示している。なお、図2に示した指令11では、ロボット130aは、時刻40msで静止する。このため、軸1と軸2と軸10の角度は、時刻40msと時刻50msで等しい。
図1に示した状態情報受信部50について説明する。
状態情報受信部50は、入力インタフェイスであり、ロボット130の現在の状態を示す情報を取得する。以下では、ロボット130の現在の状態を示す情報を、単に「状態情報」とも呼ぶ。状態情報は、ロボット130が備えるセンサやロボット130に設置されたセンサがロボット130から検出したり、ロボット130の周囲に設置されたカメラがロボット130を撮影したりすることにより、取得することができる。本実施例では、状態情報受信部50は、状態情報を、ロボットコントローラ120a~120cを介して、ロボット130a~130cに設置されたセンサから取得する。
図3は、状態情報受信部50が取得した状態情報51の例を示す図である。図3には、状態情報51の一例として、ロボット130aの軸1と軸2と軸10の角度を示している。図3に示した状態情報51では、ロボット130aの軸1は、19度の位置にあり、軸2は、101度の位置にあり、軸10は、329度の位置にある。
図1に示した時刻情報付与部60について説明する。
時刻情報付与部60は、状態情報受信部50から状態情報51を取得し、取得した状態情報51に、状態情報受信部50が状態情報51を取得した時刻を付与する。以下では、時刻が付与された状態情報51を「時刻付き状態情報」とも呼ぶ。
図4は、時刻情報付与部60が時刻を付与した時刻付き状態情報61の例を示す図である。図4には、一例として、図3に示した状態情報51に、状態情報受信部50が状態情報51を取得した時刻である200msが付与された時刻付き状態情報61を示している。
図1に示した状態比較部90について説明する。
状態比較部90は、時刻付き状態情報61におけるロボット130の状態と、指令11における複数の時刻のそれぞれの時刻でのロボット130の状態とを比較し、時刻付き状態情報61での状態と指令11におけるそれぞれの時刻での状態との差である状態差分を、指令11におけるそれぞれの時刻について求める。例えば、状態比較部90は、時刻付き状態情報61でのロボット130の状態を表す値と、指令11におけるそれぞれの時刻でのロボット130の状態を表す値との差を計算し、この差を、指令11におけるそれぞれの時刻について、状態差分として求める。
図5は、状態比較部90の構成を示す図である。状態比較部90は、受信データ取得部91、指令群取得部92、状態差分計算部93、及び状態差分出力部94を備える。
受信データ取得部91は、時刻情報付与部60から時刻付き状態情報61を取得する。
指令群取得部92は、指令生成部10が生成した、ロボット130に対する指令11(複数の時刻のそれぞれの時刻での状態)を、指令生成部10から取得する。
状態差分計算部93は、受信データ取得部91から時刻付き状態情報61を取得するとともに、指令群取得部92からロボット130に対する指令11(複数の時刻のそれぞれの時刻での状態)を取得し、時刻付き状態情報61での状態と指令11におけるそれぞれの時刻での状態との差を計算して状態差分を求める。状態差分計算部93は、指令11におけるそれぞれの時刻について、状態差分を求める。
状態差分出力部94は、状態差分計算部93が算出した状態差分を、指令完了判定部100に出力する。
図6は、状態差分計算部93が算出した状態差分97の例を示す図である。状態差分計算部93は、例えば、時刻付き状態情報61(図4)を受信データ取得部91から取得するとともに、指令11(図2)を指令群取得部92から取得する。そして、状態差分計算部93は、時刻付き状態情報61での状態と、指令11におけるそれぞれの時刻での状態との差を計算して、指令11におけるそれぞれの時刻について状態差分97の値を求める。
図6に示す例では、状態差分計算部93は、ロボット130aの軸1について、時刻200msでは19度の位置にあるという時刻付き状態情報61での状態と、時刻10msでは20度の位置にあるという指令11での状態との差を計算し、時刻10msでは状態の差が-1度であるという状態差分97の値を求める。さらに、状態差分計算部93は、ロボット130aの軸1について、時刻200msでは19度の位置にあるという時刻付き状態情報61での状態と、時刻20msでは10度の位置にあるという指令11での状態との差を計算し、時刻20msでは状態の差が9度であるという状態差分97の値を求める。状態差分計算部93は、指令11における時刻30msから時刻50msについても同様にして、状態差分97の値を求める。
このようにして、状態差分計算部93は、指令11におけるそれぞれの時刻について、状態差分97を求める。なお、それぞれの時刻の指令が、指令に付与された番号(指令番号)で特定できる場合には、状態差分計算部93は、指令11におけるそれぞれの時刻の代わりに、指令11におけるそれぞれの指令番号について状態差分97の値を求めてもよい。図6に示す指令11と状態差分97には、時刻とともに指令番号も示している。
図1に示した指令完了判定部100について説明する。
指令完了判定部100は、指令11におけるそれぞれの時刻についての状態差分97を状態比較部90から取得し、状態差分97を用いて、ロボット130の状態(時刻付き状態情報61で示される状態)が、指令11における時刻のうちどの時刻での状態に対応しているかを求める。すなわち、指令完了判定部100は、状態差分97を用いて、ロボット130が、指令11における時刻のうちどの時刻の指令を完了したかを求める。
指令完了判定部100は、状態差分97を用いた任意の方法で、ロボット130の状態が、指令11におけるどの時刻での状態に対応しているか(すなわち、指令11におけるどの時刻の指令を完了したか)を求めることができる。状態差分97は、ロボット130から取得したロボット130の状態と、指令11でのロボット130の状態との差であるので、状態差分97の値が小さいほど、ロボット130の現在の状態が指令11でのロボット130の状態に近いと言える。すなわち、状態差分97の値の大きさにより、ロボット130が、指令11におけるどの時刻の指令を完了したかを判定することができる。
指令完了判定部100は、例えば、指令11におけるそれぞれの時刻において、ロボット130の特定部分(本実施例では軸)の状態がどれだけ指令11での状態に近いかを示す指標を用いて、ロボット130の状態が、指令11におけるどの時刻での状態に対応しているか(すなわち、指令11におけるどの時刻の指令を完了したか)を求めることができる。この指標の値は、状態差分97の値から得ることができる。例えば、指令完了判定部100は、この指標の値と予め任意に定められた閾値とを比較することで、ロボット130の状態(時刻付き状態情報61で示される状態)が、指令11におけるどの時刻での状態に対応しているかを求めることができる。
図7は、本実施例において、指令完了判定部100の完了判定結果101の例を示す図である。完了判定結果101とは、指令完了判定部100が、状態差分97を用いて、ロボット130が、指令11における時刻のうちどの時刻の指令を完了したかを判定した結果のことである。
指令完了判定部100は、指令11におけるそれぞれの時刻について、ロボット130が指令を完了したか未完了であるかを判定する。図7の完了判定結果101には、指令11における時刻と、指令完了判定部100が求めた距離と、指令完了判定部100が距離に基づいて判定した結果(完了または未完了)が示されている。距離は、指令11におけるそれぞれの時刻において、ロボット130の軸の状態がどれだけ指令11での状態に近いかを示す指標である。
本実施例では、指令完了判定部100は、指令11におけるそれぞれの時刻に対し、状態差分97の値の絶対値をロボット130が備える軸について合計し、求めた合計値を距離とする。図7に示す例では、指令完了判定部100は、指令11における時刻のうち時刻10msに対しては、軸1の状態差分97の値の絶対値(1)と、軸2の状態差分97の値の絶対値(29)と、軸10の状態差分97の値の絶対値(29)を合計し、距離が59であると求める。指令完了判定部100は、指令11における時刻20ms、30ms、40ms、及び50msに対しても、同様にして、それぞれ距離が47、27、3、及び3であると求める。
そして、指令完了判定部100は、求めた距離が予め任意に定められた閾値以下の時刻では、ロボット130がその時刻での指令を完了したと判定する。すなわち、図7の完了判定結果101において完了と判定された時刻での指令は、ロボット130が完了したとみなすことができる。図7に示す例では、指令完了判定部100は、指令11における時刻のうち時刻10ms、20ms、及び30msでは距離が閾値より大きいので未完了と判定し、時刻40msと時刻50msでは距離が閾値以下であるので完了と判定する。すなわち、指令完了判定部100は、ロボット130の状態(時刻付き状態情報61で示される状態)が、指令11における時刻のうち時刻40msと時刻50msでの状態に対応していると判定する。
指令完了判定部100は、指令11における時刻のうち、1つ以上の時刻について完了と判定することができ、また、全ての時刻について未完了と判定することもできる。
図1に示した遅延時間特定部70について説明する。
遅延時間特定部70は、ロボット130a~130cのそれぞれについて、指令送信部40がロボット130a~130cに指令を送信してからロボット130a~130cが指令を完了するまでの時間である遅延時間を求める。
遅延時間特定部70は、時刻付き状態情報61の時刻(すなわち、状態情報受信部50が状態情報51を取得した時刻)と、完了判定結果101におけるそれぞれの時刻(すなわち、指令11におけるそれぞれの時刻)との差を、時間差として算出する。そして、遅延時間特定部70は、算出した時間差のうち、完了判定結果101の時刻の中で指令完了判定部100が完了と判定した時刻での時間差を、遅延時間とする。完了と判定された時刻が複数ある場合には、遅延時間特定部70は、完了と判定された時刻のうち最も早い時刻での時間差を、遅延時間とする。
図8は、本実施例において、遅延時間特定部70が求めた時間差71と遅延時間72の例を示す図である。
例えば、遅延時間特定部70は、時刻付き状態情報61の時刻である200msと、完了判定結果101における時刻10msとの差を、時間差190msとして算出する。遅延時間特定部70は、同様に、時刻付き状態情報61の時刻である200msと、完了判定結果101における時刻20ms、30ms、40ms、及び50msのそれぞれとの差を、時間差180ms、170ms、160ms、及び150msとして算出する。遅延時間特定部70は、このようにして、完了判定結果101におけるそれぞれの時刻について時間差71を求めることができる。
そして、遅延時間特定部70は、時間差190ms、180ms、170ms、160ms、及び150msのうち、完了判定結果101の時刻の中で指令完了判定部100が完了と判定した時刻40msでの時間差160msを、遅延時間72とする。図8に示す例では、完了と判定された時刻が2つあるので(時刻40msと時刻50ms)、遅延時間特定部70は、完了と判定された時刻のうち最も早い時刻である時刻40msでの時間差160msを、遅延時間72とする。
遅延時間特定部70は、このようにして、ロボット130a~130cのそれぞれについて遅延時間72を求める。なお、指令完了判定部100が、完了判定結果101(または指令11)の全ての時刻について未完了と判定した場合には、遅延時間特定部70は、遅延時間72を算出しない。遅延時間特定部70は、完了判定結果101に完了と判定された時刻がある場合に遅延時間72を算出する。
指令完了判定部100が完了と判定した時刻が複数ある場合について、遅延時間特定部70が求める時間差71と遅延時間72を説明する。
図9は、図8と同様に、本実施例において、遅延時間特定部70が求めた時間差71と遅延時間72の例を示す図である。但し、図9には、時刻210msにおける時刻付き状態情報62を示している。このため、図9に示す時間差71は、図8に示した時間差71よりも10msだけ大きい。
図9に示す時刻付き状態情報62は、図8に示す時刻付き状態情報61と、状態情報受信部50が状態情報51を取得した時刻が異なるが、状態情報51(ロボット130aの軸1と軸2と軸10の角度)が同じである。すなわち、ロボット130aは、時刻200msと時刻210msで静止しており、同じ状態を取っている。また、図9に示す時間差71では、時刻40msが使用済みであるとされている。
図8を用いて説明したように、時刻200msにおける時刻付き状態情報61を用いて遅延時間72を算出したときには、時刻40msでの時間差160msを遅延時間72とした。このため、図9に示す時刻210msにおける時刻付き状態情報62を用いて遅延時間72を算出するときには、時刻40msは使用済みであるとし、時刻40msの次に早い時刻である時刻50msでの時間差160msを、遅延時間72とする。
図1に示した遅延差分計算部80について説明する。
遅延差分計算部80は、遅延時間特定部70がロボット130a~130cのそれぞれについて求めた遅延時間72を用いて、ロボット130a~130cの間での遅延時間72の差を遅延差分時間として求める。遅延差分計算部80は、ロボット130a~130cのそれぞれについて、遅延差分時間を求める。遅延差分計算部80は、例えば、遅延時間が最も大きいロボット130a~130cの遅延時間から、それぞれのロボット130a~130cの遅延時間を引いて、遅延差分時間を計算する。
遅延差分時間は、制御装置110がロボット130a~130cに指令を送信してから、ロボット130a~130cが指令を完了するのに要する時間の、ロボット130a~130cの間での差であると考えることができる。言い換えると、遅延差分時間は、制御装置110がロボット130a~130cに対して同時に指令を送信したときに、ロボット130a~130cの間での指令を完了する時刻の差であると考えることができる。
図10は、遅延差分計算部80が求める遅延差分時間81の例を示す図である。
遅延差分計算部80は、遅延時間特定部70から、ロボット130a~130c(ロボットA~C)のそれぞれについての遅延時間72を入力する。図10に示す例では、ロボットAの遅延時間が160msで、ロボットBとロボットCの遅延時間が200msである。従って、ロボットA~Cの中で、ロボットBとロボットCの遅延時間が最も大きい。
そこで、遅延差分計算部80は、ロボットB(またはロボットC)の遅延時間からロボットA~Cのそれぞれの遅延時間を引いて、ロボットA~Cのそれぞれについて遅延差分時間81を計算する。図10に示す例では、遅延差分計算部80は、ロボットBの遅延時間200msから、ロボットA~Cのそれぞれの遅延時間160ms、200ms、及び200msを引いて、ロボットA~Cのそれぞれの遅延差分時間を40ms、0ms、及び0msと求める。
ここで、本実施例による制御装置110が、複数の機器(例えば、ロボットA~C)に対して遅延時間72と遅延差分時間81を求め、機器に指令を送信する時刻を遅延差分時間81だけ調整する(例えば、遅らせる)ことで、複数の機器が指令を完了する時刻を同じにし、複数の機器の動作を同期させることについて説明する。
図11は、ロボットAとロボットBの遅延時間72と遅延差分時間81を説明するとともに、ロボットAとロボットBの動作を同期させる方法の例を説明するタイムチャートを示す図である。制御装置110は、キャリブレーションの期間で、ロボットA、Bの遅延時間72と遅延差分時間81を求める。
制御装置110は、キャリブレーションの期間の時刻t0でロボットA、Bにそれぞれ指令A、Bを送信する。ロボットAは、時刻t1で指令Aの実行を完了し、ロボットBは、時刻t2で指令Bの実行を完了する。従って、ロボットAの遅延時間tdAは、(t1-t0)であり、ロボットBの遅延時間tdBは、(t2-t0)である。本実施例では、ロボットAの遅延時間tdAは、160msであり、ロボットBの遅延時間tdBは、200msである。
ロボットBの遅延時間tdBは、ロボットAの遅延時間tdAよりも大きい(tdB>tdA)。このため、ロボットAの遅延差分時間ΔtdAは、(tdB-tdA)であり、ロボットBの遅延差分時間ΔtdBは、(tdB-tdB)すなわちゼロである。従って、制御装置110がロボットA、Bに同時に指令を送信すると、ロボットBは、ロボットAよりも遅延差分時間ΔtdAだけ遅く指令を完了する。本実施例では、遅延差分時間ΔtdAは、40msである。
制御装置110は、ロボットA、Bの遅延差分時間ΔtdA、ΔtdBが求められたので、ロボットA、Bに指令を送信する時刻を、それぞれ遅延差分時間ΔtdA、ΔtdBだけ調整する。本実施例では、ΔtdB=0msであるので遅延差分時間ΔtdBを考慮せず、ロボットAに指令Aを送信する時刻を、ロボットBに指令Bを送信する時刻から遅延差分時間ΔtdA(40ms)だけ遅らせる。
このように指令を送信する時刻を調整すると、制御装置110は、図11のロボット制御の期間に示すように、ロボットBには時刻t3で指令Bを送信し、ロボットAには時刻t4(=t3+ΔtdA)で指令Aを送信する。ロボットBは、時刻t3から遅延時間tdBだけ後の時刻t5(=t3+tdB)で指令Bを完了する。ロボットAは、時刻t4から遅延時間tdAだけ後の時刻t6(=t4+tdA)で指令Aを完了する。t4=t3+ΔtdAであり、ΔtdA=tdB-tdAであるので、時刻t6は、時刻t5と等しい。すなわち、ロボットAとロボットBは、同時刻に指令を完了する。
制御装置110は、このように指令を送信する時刻を調整することで、ロボットA、Bが指令を完了する時刻を同じにし、ロボットA、Bの動作を同期させることができる。
図1に示した指令補正部20について説明する。
指令補正部20は、指令生成部10が生成した指令11(図2)を、ロボット130の遅延時間72と遅延差分時間81を用いて、指令11に含まれている時刻を変更することで補正する。本実施例では、制御装置110は、現在から遅延時間72と遅延差分時間81の合計だけ後の時刻に完了する指令を、現在から遅延差分時間81だけ後の時刻に、ロボット130へ送信する。このため、指令補正部20は、指令を、遅延時間72と遅延差分時間81の合計だけ後の時刻での指令に変更する。
図11に示したタイムチャートを用いて、指令補正部20がロボットAに対して実行する指令11の補正の例について説明する。
制御装置110は、時刻t3から遅延差分時間ΔtdAと遅延時間tdAの合計(ΔtdA+tdA)だけ後の時刻にロボットAが実行を完了する指令Aを、時刻t3から遅延差分時間ΔtdAだけ後の時刻にロボットAへ送信する。すなわち、制御装置110は、時刻t6にロボットAが完了する指令Aを、時刻t4にロボットAへ送信する。
そこで、指令補正部20は、時刻t3での指令Aを、時刻t3から遅延差分時間ΔtdAと遅延時間tdAの合計(ΔtdA+tdA)だけ後の時刻での指令Aに変更する。すなわち、指令補正部20は、時刻t3での指令Aを、時刻t6での指令Aに変更する補正を行う。
図12は、指令補正部20が実行する補正を説明する図である。
図12において、左側の表は、指令生成部10が生成した、ロボットAに対する指令15の例を示す。指令15において、時刻0msが図11のタイムチャートでの時刻t3に対応し、時刻200msが図11のタイムチャートでの時刻t6に対応する。
指令補正部20は、時刻0ms(時刻t3)での指令を、時刻0msから遅延差分時間ΔtdA(40ms)と遅延時間tdA(160ms)の合計である200msだけ後の時刻、すなわち時刻200ms(時刻t6)での指令に変更する補正を行う。この補正により、制御装置110は、ロボットAに対し、時刻0msでの指令を送信せず、時刻200msでの指令を送信することになる。また、制御装置110は、既に説明したように、この時刻200msでの指令を、時刻t4でロボットAに送信する。
図12において、右側の表は、指令補正部20の補正により、制御装置110が時刻t4でロボットAに送信することになった指令、すなわち、時刻200msでの指令を示している。
図1に示したタイミング調整部30について説明する。
図13は、タイミング調整部30の構成を示す図である。タイミング調整部30は、遅延差分時間取得部31、指令取得部32、指令保持部33、及びタイマ34を備え、ロボット130に指令を送信する時刻を遅延差分時間81だけ調整する。
遅延差分時間取得部31は、遅延差分計算部80から、ロボット130a~130c(ロボットA~C)のそれぞれの遅延差分時間81(図10)を取得する。
指令取得部32は、ロボット130a~130cのそれぞれについての指令を取得する。指令補正部20が指令を補正した場合には、指令取得部32は、補正された指令を指令補正部20から取得する。指令補正部20が指令を補正していない場合には、指令取得部32は、指令生成部10が生成した指令を指令生成部10から取得する。
指令保持部33は、ロボット130a~130cのそれぞれについて、指令取得部32が取得した指令を、遅延差分時間取得部31が取得した遅延差分時間81だけ送信時刻を遅らせて、指令送信部40に出力する。
タイミング調整部30は、このようにして、ロボット130への指令を指令送信部40に出力するタイミングを調整し、ロボット130に指令を送信する時刻を遅延差分時間81だけ調整する。
本実施例では、図10に示すように、ロボット130a~130c(ロボットA~C)の遅延差分時間がそれぞれ40ms、0ms、及び0msであるので、指令保持部33は、ロボット130aへの指令を、ロボット130b~130cへの指令よりも40msだけ調整してから(すなわち、40msだけ遅らせて)、指令送信部40に出力する。
指令保持部33は、指令を調整する時間の長さをタイマ34で測ることができる。
図1に示した指令送信部40について説明する。
指令送信部40は、出力インタフェイスであり、タイミング調整部30から出力された指令をロボット130に送信する。ロボット130は、指令送信部40から送信された指令を取得して、制御装置110に制御される。
以上の実施例では、指令生成部10が生成した指令11と、状態情報受信部50が取得した状態情報51が、ロボット130が備える関節(軸)の角度で表される例を説明した。
制御装置110は、指令生成部10が生成した指令11と状態情報受信部50が取得した状態情報51の一方または両方が、ロボット130の特定部分の位置の座標で表されていても、これらが軸の角度で表されている場合と同様にして、遅延時間72と遅延差分時間81を求めることができる。ロボット130の特定部分の位置とは、例えば、ロボット130が備えるアームの先端部の位置である。
以下では、一例として、指令11がロボット130の特定部分の位置の座標で表されており、状態情報51がロボット130の軸の角度で表されている場合について説明する。
状態情報受信部50は、取得した、ロボット130の軸の角度で表されている状態情報51を、ロボット130の特定部分の位置の座標で表される状態情報に変換することができる。状態情報受信部50は、ロボット130の構造に関する情報(例えば、それぞれの軸に接続しているアームの長さなど)を保持しており、この情報を用いて状態情報51を変換することができる。
図14は、ロボット130の軸の角度で表される状態情報51と、ロボット130の特定部分の位置の座標で表される状態情報55の例を示す図である。状態情報55は、状態情報受信部50が状態情報51を変換することで得られる。図14には、状態情報55の一例として、ロボット130aが備えるアームの先端部の位置の座標(X、Y、Z)を示している。
図15は、ロボット130の特定部分の位置の座標で表される状態差分99の例を示す図である。時刻情報付与部60は、状態情報55(図14)に、状態情報受信部50が状態情報51を取得した時刻を付与することで、時刻付き状態情報65を得る。指令生成部10は、ロボット130の特定部分の位置の座標(X、Y、Z)で表された指令16を生成する。状態比較部90は、時刻付き状態情報65と指令16から状態差分99を求める。状態比較部90は、X、Y、Z座標のそれぞれについて、状態差分99の値を求める。
図16は、指令完了判定部100が、座標で表された状態差分99を用いて判定をした結果(完了判定結果105)の例を示す図である。完了判定結果105の距離は、指令16におけるそれぞれの時刻、すなわち状態差分99におけるそれぞれの時刻に対し、状態差分99の値の絶対値をX座標とY座標とZ座標について合計して得られる。
指令11と状態情報51の一方または両方は、ロボット130の特定部分の位置の速度または加速度で表されていてもよい。位置の速度と加速度は、位置の座標を時間について微分することにより(または、時間についての差分を求めることにより)得ることができる。
従って、ロボット130の状態情報51には、ロボット130の予め定められた特定部分の位置の角度(予め定められた基準位置からの角度)、座標、速度、及び加速度のうちの少なくとも1つが含まれる。速度と加速度には、角度の変化の速度と加速度と、座標の変化の速度と加速度が含まれる。
状態情報51がロボット130の特定部分の位置(角度も含む)の速度または加速度である場合には、指令完了判定部100は、指令の完了の判定に用いる閾値を、この速度または加速度に応じて変更することもできる。例えば、指令完了判定部100は、速度が大きい場合には、ロボット130の特定部分の位置の変化が大きいのに対応するために、閾値を大きくすることができる。
また、状態情報51がロボット130の特定部分の位置の座標で表されている場合(図14~16)には、状態差分99(図15)を求めるのに、座標ではなく、予め任意に定められた2点間の距離を用いることもできる。この2点間の距離は、2次元空間内の距離(XY平面内の距離、YZ平面内の距離、またはZX平面内の距離)でもよく、3次元空間内の距離でもよい。
遅延時間特定部70は、状態情報受信部50が状態情報51を取得した時刻が複数ある場合(例えば、図8の時刻200msと図9の時刻210ms)には、複数の時刻で得られた遅延時間72の平均値、中央値、または最頻値を、遅延時間72とすることもできる。この複数の時刻は、予め任意に定められた時間間隔内の時刻とすることができる。また、この複数の時刻は、時間が進むのに伴って、早い時刻を遅い時刻に入れ替えることもできる。例えば、時刻200ms、210ms、及び220msの組を、時刻200msを時刻230msに入れ替えて、時刻210ms、220ms、及び230msの組に変更することもできる。
以上説明したように、本実施例による制御装置は、時刻付き状態情報61とロボット130に送信した指令11とを用いて遅延時間72を求め、複数のロボット130の間での遅延時間72の差を遅延差分時間81として求め、ロボット130に指令を送信する時刻を遅延差分時間81だけ調整することで、複数のロボット130が指令を完了する時刻を同じにし、複数のロボット130の動作を同期させることができる。
なお、本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。例えば、上記の実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明は、必ずしも説明した全ての構成を備える態様に限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能である。また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、削除したり、他の構成を追加・置換したりすることが可能である。
10…指令生成部、11…指令、15…指令、16…指令、20…指令補正部、30…タイミング調整部、31…遅延差分時間取得部、32…指令取得部、33…指令保持部、34…タイマ、40…指令送信部、50…状態情報受信部、51…状態情報、55…状態情報、60…時刻情報付与部、61…時刻付き状態情報、62…時刻付き状態情報、65…時刻付き状態情報、70…遅延時間特定部、71…時間差、72…遅延時間、80…遅延差分計算部、81…遅延差分時間、90…状態比較部、91…受信データ取得部、92…指令群取得部、93…状態差分計算部、94…状態差分出力部、97…状態差分、99…状態差分、100…指令完了判定部、101…完了判定結果、105…完了判定結果、110…制御装置、120a~120c…ロボットコントローラ、130、130a~130c…ロボット。
Claims (10)
- 複数の機器に対し、複数の時刻での前記機器の状態を指定した指令を生成する指令生成部と、
前記指令を前記機器に送信する指令送信部と、
前記機器の状態を示す情報である状態情報を取得する状態情報受信部と、
前記指令におけるそれぞれの時刻について、前記指令での前記機器の状態と、前記状態情報での前記機器の状態との差である状態差分を求める状態比較部と、
前記状態差分を用いて、前記機器が、前記指令における時刻のうちどの時刻の指令を完了したかを求める指令完了判定部と、
前記機器のそれぞれについて、前記指令送信部が前記機器に前記指令を送信してから前記機器が前記指令を完了するまでの時間である遅延時間を求める遅延時間特定部と、
前記機器のそれぞれの前記遅延時間を用いて、前記機器の間での前記遅延時間の差である遅延差分時間を求める遅延差分計算部と、
前記機器に前記指令を送信する時刻を前記遅延差分時間だけ調整するタイミング調整部と、
を備えることを特徴とする、機器の制御装置。 - 前記状態情報に、前記状態情報受信部が前記状態情報を取得した時刻を付与する時刻情報付与部を備える、
請求項1に記載の、機器の制御装置。 - 前記指令を、前記遅延時間と前記遅延差分時間を用いて、前記指令に含まれている時刻を変更することで補正する指令補正部を備える、
請求項2に記載の、機器の制御装置。 - 前記指令完了判定部は、前記状態差分を用いて、前記状態情報が前記指令におけるどの時刻での状態に対応しているかを求めることで、前記機器がどの時刻の指令を完了したかを求める、
請求項2に記載の、機器の制御装置。 - 前記指令完了判定部は、前記状態差分の値から得られた指標の値と、予め定められた閾値とを比較することで、前記状態情報が前記指令におけるどの時刻での状態に対応しているかを求める、
請求項4に記載の、機器の制御装置。 - 前記遅延時間特定部は、
前記状態情報受信部が前記状態情報を取得した時刻と前記指令におけるそれぞれの時刻との差を時間差として算出し、
算出した前記時間差のうち、前記指令完了判定部が前記機器が指令を完了したと求めた時刻での時間差を、前記遅延時間とする、
請求項4に記載の、機器の制御装置。 - 前記タイミング調整部は、前記遅延差分時間だけ送信時刻を遅らせて前記指令を前記指令送信部に出力することで、前記機器に前記指令を送信する時刻を調整する、
請求項2に記載の、機器の制御装置。 - 前記状態情報には、前記機器の予め定められた部分の位置の角度、座標、速度、及び加速度のうちの少なくとも1つが含まれる、
請求項1に記載の、機器の制御装置。 - 請求項1に記載の制御装置と、
前記制御装置に制御される複数の前記機器と、
を備えることを特徴とする、機器の制御システム。 - 複数の機器を制御する制御装置が実行し、
複数の前記機器に対し、複数の時刻での前記機器の状態を指定した指令を生成する指令生成ステップと、
前記指令を前記機器に送信する指令送信ステップと、
前記機器の状態を示す情報である状態情報を取得する状態情報受信ステップと、
前記指令におけるそれぞれの時刻について、前記指令での前記機器の状態と、前記状態情報での前記機器の状態との差である状態差分を求める状態比較ステップと、
前記状態差分を用いて、前記機器が、前記指令における時刻のうちどの時刻の指令を完了したかを求める指令完了判定ステップと、
前記機器のそれぞれについて、前記指令送信ステップで前記機器に前記指令を送信してから前記機器が前記指令を完了するまでの時間である遅延時間を求める遅延時間特定ステップと、
前記機器のそれぞれの前記遅延時間を用いて、前記機器の間での前記遅延時間の差である遅延差分時間を求める遅延差分計算ステップと、
前記機器に前記指令を送信する時刻を前記遅延差分時間だけ調整するタイミング調整ステップと、
を有することを特徴とする、機器の制御方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022-116654 | 2022-07-21 | ||
JP2022116654A JP2024014080A (ja) | 2022-07-21 | 2022-07-21 | 機器の制御装置、制御システム、及び制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024018900A1 true WO2024018900A1 (ja) | 2024-01-25 |
Family
ID=89617765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/024985 WO2024018900A1 (ja) | 2022-07-21 | 2023-07-05 | 機器の制御装置、制御システム、及び制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024014080A (ja) |
WO (1) | WO2024018900A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3577028B2 (ja) * | 2001-11-07 | 2004-10-13 | 川崎重工業株式会社 | ロボットの協調制御システム |
JP2004362022A (ja) * | 2003-06-02 | 2004-12-24 | Toyota Motor Corp | 移動体 |
JP2006312237A (ja) * | 2005-05-06 | 2006-11-16 | Fanuc Robotics America Inc | 少なくとも2本のロボットアームの同期化システムおよびその制御方法 |
JP6114096B2 (ja) * | 2013-04-22 | 2017-04-12 | 株式会社Ihiエアロスペース | ロボット間の時間同期方法 |
JP6724831B2 (ja) * | 2017-03-16 | 2020-07-15 | 株式会社安川電機 | コントロールシステム、コントローラ及び制御方法 |
-
2022
- 2022-07-21 JP JP2022116654A patent/JP2024014080A/ja active Pending
-
2023
- 2023-07-05 WO PCT/JP2023/024985 patent/WO2024018900A1/ja unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3577028B2 (ja) * | 2001-11-07 | 2004-10-13 | 川崎重工業株式会社 | ロボットの協調制御システム |
JP2004362022A (ja) * | 2003-06-02 | 2004-12-24 | Toyota Motor Corp | 移動体 |
JP2006312237A (ja) * | 2005-05-06 | 2006-11-16 | Fanuc Robotics America Inc | 少なくとも2本のロボットアームの同期化システムおよびその制御方法 |
JP6114096B2 (ja) * | 2013-04-22 | 2017-04-12 | 株式会社Ihiエアロスペース | ロボット間の時間同期方法 |
JP6724831B2 (ja) * | 2017-03-16 | 2020-07-15 | 株式会社安川電機 | コントロールシステム、コントローラ及び制御方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2024014080A (ja) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3145682B1 (en) | Systems and methods for time-based parallel robotic operation | |
US20180164788A1 (en) | Production system, controller, and control method | |
EP3126917B1 (en) | Runtime controller for robotic manufacturing system | |
JP4382003B2 (ja) | ロボット制御装置およびロボット制御方法 | |
US9149932B2 (en) | Robot picking system, control device, and method of manufacturing a workpiece | |
JP7068059B2 (ja) | 遠隔操作方法及び遠隔操作システム | |
US10625421B2 (en) | Controller, control system, and control method | |
CN105242533A (zh) | 一种融合多信息的变导纳遥操作控制方法 | |
US11648670B2 (en) | Machine tool system | |
CN113561171B (zh) | 具有动态运动调整机制的机器人系统及其操作方法 | |
KR102517023B1 (ko) | 머신 제어 시스템, 머신 및 통신 방법 | |
EP3911478A1 (en) | System for emulating remote control of a physical robot | |
US20230107431A1 (en) | Comparison between real control and virtual control of robot | |
WO2024018900A1 (ja) | 機器の制御装置、制御システム、及び制御方法 | |
KR20020044499A (ko) | 로봇 제어시스템 및 그 제어방법 | |
US20220247632A1 (en) | Control system, control device, and non-transitory computer-readable recording medium recording program | |
EP4265378A1 (en) | Path generation method of generating path of robot using command from external apparatus and robot control system | |
JP7299674B2 (ja) | ロボット高周波数位置ストリーミング | |
US20220331951A1 (en) | Robot control system, lower-level control apparatus, and control method for robot | |
WO2021024523A1 (ja) | 制御装置 | |
EP4138402A1 (en) | Machine control system, program, machine, system, and device | |
JP6915759B1 (ja) | マシン制御システム、プログラム、マシン、システム及びデバイス | |
JP2006099310A (ja) | ロボットシミュレーション装置および方法 | |
CN118123827A (zh) | 一种机械臂运动控制方法及系统 | |
Sziebig et al. | Visual Programming of Robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23842825 Country of ref document: EP Kind code of ref document: A1 |