WO2024019107A1 - Multiple-robot control method, multiple-robot control device, and multiple-robot control system - Google Patents
Multiple-robot control method, multiple-robot control device, and multiple-robot control system Download PDFInfo
- Publication number
- WO2024019107A1 WO2024019107A1 PCT/JP2023/026552 JP2023026552W WO2024019107A1 WO 2024019107 A1 WO2024019107 A1 WO 2024019107A1 JP 2023026552 W JP2023026552 W JP 2023026552W WO 2024019107 A1 WO2024019107 A1 WO 2024019107A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robots
- robot
- task information
- operator
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000005856 abnormality Effects 0.000 claims description 46
- 230000033001 locomotion Effects 0.000 claims description 32
- 230000009467 reduction Effects 0.000 claims description 27
- 238000004088 simulation Methods 0.000 claims description 27
- 238000004904 shortening Methods 0.000 claims description 15
- 238000009825 accumulation Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 102220167146 rs115562835 Human genes 0.000 description 4
- 102220091166 rs876657475 Human genes 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000036632 reaction speed Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 102220076776 rs144141585 Human genes 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4069—Simulating machining process on screen
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
Definitions
- the present disclosure relates to a method for controlling multiple robots, a control device for multiple robots, and a control system for multiple robots.
- the present disclosure is intended to solve the above problems, and provides a method for controlling multiple robots, a control device for multiple robots, and a control device for multiple robots, in which multiple robots can be controlled by one operator.
- the purpose is to provide a system.
- a method for controlling multiple robots includes the steps of receiving operation commands from an operator to multiple robots, and controlling multiple robot models and environment models corresponding to the multiple robots. using the robot model to operate multiple robot models in an environment model faster than in real time based on movement instructions, obtaining predicted observed values as a result, and directing the predicted observed values to an operator.
- the method includes displaying, accumulating task information including motion instructions and predicted observed values, and transmitting the accumulated task information to a plurality of robots.
- a control device for multiple robots includes an input unit that receives operation commands from an operator to the multiple robots, and multiple robot models and environment models corresponding to the multiple robots, and includes a plurality of robot models and an environment model corresponding to the multiple robots, and A simulation unit that operates multiple robot models in an environment model faster than real time and outputs the resulting predicted observed values, a display unit that displays the predicted observed values to the operator, and a movement command. and a storage unit that stores task information including predicted observed values, and a transmission unit that transmits the task information stored in the storage unit to a plurality of robots.
- a control system for a plurality of robots includes a plurality of robots and a control device for the plurality of robots, and the control device includes an input unit that receives operation commands from an operator to the plurality of robots; Contains multiple robot models and environment models corresponding to multiple robots, based on motion instructions, simulates the motion of multiple robot models within the environment model faster than real time, and the resulting predicted observed values a simulation unit that outputs predicted observed values; a display unit that displays predicted observed values to the operator; a first storage unit that accumulates task information including operation commands and predicted observed values; a transmitter that transmits task information to a plurality of robots, and each of the plurality of robots includes a receiver that receives task information from a control device, and a second receiver that accumulates task information received by the receiver.
- the storage unit includes a storage unit, and a control unit that operates the device in a real environment according to operation instructions included in the task information stored in the second storage unit.
- FIG. 1 is a diagram showing the configuration of a control system for multiple robots according to Embodiment 1.
- FIG. 1 is a diagram showing detailed configurations of a control device and a robot according to Embodiment 1.
- FIG. 3 is a diagram showing a logical configuration of a simulator and a storage unit according to the first embodiment.
- FIG. 3 is a diagram showing a logical configuration of a robot and a storage unit according to the first embodiment.
- 3 is a flowchart illustrating the operation of the control system for a plurality of robots according to the first embodiment. It is a time chart for transmitting and executing task information from a control device to a robot. It is a figure which shows the definition example of environmental complexity.
- FIG. 1 is a diagram showing the configuration of a control system for multiple robots according to Embodiment 1.
- FIG. 1 is a diagram showing detailed configurations of a control device and a robot according to Embodiment 1.
- FIG. 3 is a diagram showing a
- FIG. 2 is a diagram showing a configuration in which a simulator and a robot correspond to each other on a one-to-one basis.
- FIG. 2 is a diagram showing a configuration in which a simulator and a robot correspond to each other in a 1:N ratio.
- FIG. 3 is a diagram illustrating an example of defining parameters of an autonomous driving robot. It is a figure which shows the calculation example of the maximum value of the shortening rate of a self-driving robot.
- FIG. 1 is a diagram showing the configuration of a control system 100 for multiple robots according to Embodiment 1 of the present disclosure.
- the control system 100 includes a control device 10 operated by an operator 1 and two robots 20a and 20b controlled by the control device 10.
- the control device 10 is located at the operation base B.
- the robot 20a is placed in a working environment W1
- the robot 20b is placed in a working environment W2.
- the operation base B and the work environments W1 and W2 are assumed to be located at separate locations, but they may be located at the same location.
- control device 10 and the robot 20a can communicate with each other via wireless communication.
- control device 10 and the robot 20b can communicate with each other via wireless communication.
- Operator 1 can control robots 20a and 20b by operating control device 10. In other words, the operator 1 can control the robots 20a and 20b via the control device 10.
- robots 20a and 20b are not particularly limited, one example is a manipulator robot used for domestic housework support. Note that the number of robots controlled by the control device 10 is not limited to two, and may be three or more. Furthermore, multiple robots may exist in one work environment.
- FIG. 2 is a diagram showing the detailed configuration of the control device 10 and the robots 20a and 20b.
- the control device 10 includes an input section 11, a simulation section 12, a display section 13, storage sections 14a and 14b, a transmission section 15, and a reception section 16.
- the input unit 11 is composed of, for example, a keyboard or a mouse, and receives operation commands from the operator 1 to the robots 20a and 20b.
- operation commands include forward movement, backward movement, direction change, acceleration, and deceleration of the robot.
- the simulation unit 12 is configured by, for example, a personal computer.
- the simulation unit 12 simulates the movements of the robots 20a and 20b based on the movement commands for the robots 20a and 20b received from the operator 1 via the input unit 11.
- the simulation unit 12 includes a simulator 12a that simulates the operation of the robot 20a, and a simulator 12b that simulates the operation of the robot 20b.
- FIG. 3 is a diagram showing the logical configuration of simulators 12a and 12b and storage units 14a and 14b, which will be described later.
- the simulator 12a includes a robot model 121a corresponding to the robot 20a and an environment model 122a corresponding to the work environment W1.
- the simulator 12b includes a robot model 121b corresponding to the robot 20b and an environment model 122b corresponding to the work environment W2.
- the simulator 12a operates the robot model 121b within the environment model 122a at a higher speed than in real time based on the operation command from the operator 1, and outputs the predicted observation value obtained as a result.
- predicted observed values include information on the internal world such as the position, velocity, and acceleration of the robot model 121a, and information on the external world such as the position, velocity, and acceleration of obstacles that exist around the robot model 121a. be.
- the simulator 12b operates the robot model 121b within the environment model 122b at a higher speed than in real time based on the operation command from the operator 1, and outputs the resulting predicted observation value.
- predicted observed values include information on the internal world such as the position, velocity, and acceleration of the robot model 121b, and information on the external world such as the position, velocity, and acceleration of obstacles that exist around the robot model 121b. be.
- the robot models 121a and 121b operate faster than in real time.
- Treal the real time, that is, the time that actually elapses in the real environment
- Tsim the simulation time that elapses within the environment model
- the display section 13 is composed of, for example, a liquid crystal display.
- the storage units 14a and 14b are configured by, for example, a memory device or the like.
- the storage unit 14a includes operation commands from the operator 1, predicted observed values obtained as a result of operating the robot model 121a within the environment model 122a based on the operation commands, and time information within the environment model 122a. , accumulates task information corresponding to the robot 20a (see FIG. 3).
- the storage unit 14b stores operation commands from the operator 1, predicted observed values obtained as a result of operating the robot model 121b within the environment model 122b based on the operation commands, and time information within the environment model 122b. (See FIG. 3).
- the task information stored first in the storage unit 14a is the task information at time Tst in the environment model 122a.
- the second stored task information is the task information at time Tst+ ⁇ T in the environment model 122a.
- the Nth accumulated task information is the task information at time Tst+N ⁇ T in the environment model 122a.
- ⁇ T is the time that passes within the environment model 122a, that is, the simulation time.
- the task information stored first in the storage unit 14b is the task information at time Tst in the environment model 122b.
- the second stored task information is the task information at time Tst+ ⁇ T in the environment model 122b.
- the Nth accumulated task information is the task information at time Tst+N ⁇ T in the environment model 122b.
- ⁇ T is the time elapsed within the environment model 122b, that is, the simulation time.
- the transmitting unit 15 is configured by, for example, a wireless communication interface, and transmits the task information stored in the storage unit 14a all at once to the corresponding robot 20a. Further, the transmitter 15 transmits the task information stored in the storage section 14b to the corresponding robot 20b all at once.
- the receiving unit 16 is configured by, for example, a wireless communication interface, and receives abnormality detection information, which will be described later, from the robot 20a or 20b.
- the display unit 13 displays the abnormality detection information received by the receiving unit 16 for the operator 1 .
- the robot 20a includes a receiving section 21a, a storage section 22a, a control section 23a, a traveling motor 24a, an internal sensor 25a, an external sensor 26a, and an abnormality detecting section 27a.
- the receiving unit 21a is configured by, for example, a wireless communication interface, and receives the task information transmitted from the control device 10 all at once. This task information has been stored in the storage section 14a of the control device 10.
- the storage unit 22a is configured by, for example, a memory device, and stores the task information collectively received by the reception unit 21a.
- FIG. 4 is a diagram showing the logical configuration of robots 20a and 20b and their storage units 22a and 22b in a working environment, that is, a real environment.
- the task information stored first in the storage unit 22a is the task information at time Tst in the actual environment.
- the second stored task information is the task information at time Tst+ ⁇ in the actual environment.
- the Nth accumulated task information is the task information at time Tst+N ⁇ in the actual environment.
- control unit 23a is configured by, for example, a microcomputer.
- the control unit 23a reads the task information stored in the storage unit 22a, and controls the travel motor 24a, etc. according to the operation command included in the task information, thereby adjusting the operation of the robot 20a in the real environment, that is, the work environment W1. (see Figure 4).
- Specific examples of the movements of the robot 20a include forward movement, backward movement, direction change, acceleration, and deceleration of the robot 20a.
- control unit 23a acquires actual observed values obtained as a result of the operation of the robot 20a via the internal world sensor 25a and the external world sensor 26a.
- actual observed values include information on the internal world such as the position, velocity, and acceleration of the robot 20a, and information on the external world such as the position, velocity, and acceleration of obstacles existing around the robot 20a.
- the abnormality detection unit 27a is configured by, for example, a microcomputer.
- the anomaly detection unit 27a determines the predicted observed value and the actual observed value based on the comparison between the predicted observed value included in the task information and the actual observed value acquired via the internal sensor 25a and the external sensor 26a. Detects a deviation, that is, an abnormality (see FIG. 4). For example, if the difference between the position and speed of the surrounding obstacles in the predicted observed values and the position and speed of the surrounding obstacles in the actual observed values is greater than or equal to a predetermined threshold, it is determined that there is an abnormality.
- the abnormality detection unit 27a transmits abnormality detection information including the details of the abnormality to the control device 10 via wireless communication.
- control system 100 (Operation of control system) Next, the operation of the control system 100 for multiple robots according to the first embodiment will be described with reference to the flowchart in FIG. 5.
- the operation of the control system 100 is divided into an operation phase of steps S11 to S16 executed by the control device 10 and an execution phase of steps S21 to S27 executed by the robots 20a and 20b.
- step S11 of the execution phase the input unit 11 of the control device 10 receives one operation command from the operator 1 to the robot 20a. Furthermore, the input unit 11 of the control device 10 receives one operation command from the operator 1 to the robot 20b.
- step S12 the simulation unit 12 of the control device 10 simulates the movements of the robots 20a and 20b faster than in real time, based on the movement command received in step S11 above.
- the simulator 12a operates the robot model 121a within the environment model 122a at a higher speed than in real time based on one operation command, and outputs one predicted observation value obtained as a result.
- the simulator 12b operates the robot model 121b within the environment model 122b at a higher speed than in real time based on one operation instruction, and outputs one predicted observed value obtained as a result.
- step S13 the display unit 13 of the control device 10 displays one predicted observation value corresponding to the robot 20a and one predicted observation value corresponding to the robot 20b output in step S12 above to the operator 1. indicate.
- step S14 the storage unit 14a of the control device 10 receives the one motion command for the robot 20a received in step S11 above and the robot 20a output in step S12 as a result of the one motion command.
- One piece of task information including one corresponding predicted observed value and time information in the environment model 122a is accumulated.
- the storage unit 14b of the control device 10 corresponds to one motion command to the robot 20b received in step S11 above and the robot 20b outputted in step S12 above as a result of the one motion command.
- One piece of task information is accumulated, including one predicted observation value to be performed and time information in the environment model 122b.
- step S16 the transmitter 15 of the control device 10 transmits the task information stored in the storage unit 14a all at once to the corresponding robot 20a. Furthermore, the transmitter 15 of the control device 10 transmits the task information stored in the storage section 14b to the corresponding robot 20b all at once. Up to this point, the operation phase executed by the control device 10 has ended, and the process moves to the execution phase executed by the robots 20a and 20b.
- step S21 of the execution phase the receiving unit 21a of the robot 20a receives task information from the control device 10 all at once. Similarly, the receiving unit 21b of the robot 20b receives task information all at once from the control device 10.
- step S22 the storage unit 22a of the robot 20a stores the task information collectively received in step S21 above.
- time information Tst+n ⁇ T in the environment model 122a included in the task information is converted to time information Tst+n ⁇ of the actual environment.
- the storage unit 22b of the robot 20b stores the task information received all at once in step S21 above.
- time information Tst+n ⁇ T in the environment model 122b included in the task information is converted to time information Tst+n ⁇ of the actual environment.
- step S23 the control unit 23a of the robot 20a retrieves one piece of task information from the storage unit 22a, and controls the traveling motor 24a and the like according to one operation command included in the one task information, thereby controlling the real environment. That is, the operation of the robot 20a in the work environment W1 is controlled.
- Specific examples of the movements of the robot 20a include forward movement, backward movement, direction change, acceleration, and deceleration of the robot 20a.
- control unit 23b of the robot 20b retrieves one piece of task information from the storage unit 22b, and controls the traveling motor 24b etc. according to one operation command included in the one task information, thereby controlling the real environment, i.e.
- the operation of the robot 20b in the work environment W2 is controlled.
- Specific examples of the operations of the robot 20b include forward movement, backward movement, direction change, acceleration, deceleration, etc. of the robot 20b.
- step S24 the control unit 23a of the robot 20a acquires one actual observation value obtained as a result of the operation in step S23 above, via the internal world sensor 25a and the external world sensor 26a.
- a specific example of one actual observation value is information on the inner world such as the position, velocity, and acceleration of the robot 20a, and information on the outside world such as the position, velocity, and acceleration of obstacles that exist around the robot 20a. be.
- the control unit 23b of the robot 20b obtains one actual observation value obtained as a result of the operation in step S23 above via the internal world sensor 25b and the external world sensor 26b.
- a specific example of one actual observation value is information on the internal world such as the position, velocity, and acceleration of the robot 20b, and information on the external world such as the position, velocity, and acceleration of obstacles that exist around the robot 20b. be.
- step S25 the abnormality detection unit 27a of the robot 20a detects one predicted observation value included in one piece of task information extracted in step S23 above and one actual observation value acquired in step S24 above. Based on the comparison, the deviation between the predicted observed value and the actual observed value, that is, the presence or absence of an abnormality, is determined. For example, if the difference between the position and speed of the surrounding obstacles in the predicted observed values and the position and speed of the surrounding obstacles in the actual observed values is greater than or equal to a predetermined threshold, it is determined that there is an abnormality.
- the abnormality detection unit 27a transmits abnormality detection information including the details of the abnormality to the control device 10 via wireless communication (step S27), and Control ends (END). After this, control of the robot 20a shifts to real-time control by the operator 1. Thereby, the operator 1 can control the obstacle avoidance operation in real time, for example.
- the process advances to step S26.
- the abnormality detection unit 27b of the robot 20b detects one predicted observation value included in one task information extracted in step S23 above and one actual observation value acquired in step S24 above. Based on the comparison, the deviation between the predicted observed value and the actual observed value, that is, the presence or absence of an abnormality, is determined. For example, if the difference between the position and speed of the surrounding obstacles in the predicted observed values and the position and speed of the surrounding obstacles in the actual observed values is greater than or equal to a predetermined threshold, it is determined that there is an abnormality.
- the abnormality detection unit 27b transmits abnormality detection information including the details of the abnormality to the control device 10 via wireless communication (step S27), and Control ends (END). After this, control of the robot 20b shifts to real-time control by the operator 1. Thereby, the operator 1 can control the obstacle avoidance operation in real time, for example.
- the process advances to step S26.
- the control system for multiple robots includes multiple robot models and environment models corresponding to the multiple robots.
- the control device causes the plurality of robot models to operate within the environment model at a higher speed than in real time based on the movement commands for the plurality of robots received from the operator, and obtains predicted observed values obtained as a result.
- the control device accumulates task information including operation commands and predicted observed values, and transmits the accumulated task information to a plurality of robots. Due to these features, the control system according to the first embodiment allows one operator to control a plurality of robots.
- Each robot accumulates task information received from the control device and operates in the real environment according to operation instructions included in the accumulated task information. As a result, compared to sequentially transmitting task information from the control device to each robot, the influence of communication delays between the control device and the robots can be minimized.
- the upper time chart in FIG. 6 is a time chart for collectively transmitting and executing task information accumulated by the control device to the robot in the control system according to the first embodiment.
- the lower time chart in FIG. 6 is a time chart in which task information is sequentially transmitted and executed from the control device to the robot, as seen in the prior art.
- Each robot acquires actual observed values obtained as a result of operating in a real environment, and detects anomalies based on a comparison between the predicted observed values and the actual observed values. This allows each robot to detect deviations between predicted observed values and actual observed values, that is, abnormalities, in real time.
- control of the robot where the abnormality has been detected shifts to real-time control by the operator. This allows the operator to control the robot in real time when an abnormality is detected.
- the reduction rate Kscale may be determined based on the frequency of occurrence of disturbance elements present in the robot's working environment, that is, the actual environment. For example, an obstacle that has a relatively high possibility of causing a deviation between the predicted observed value and the actual observed value is a disturbance element that occurs frequently. If such disturbance elements that occur frequently exist, by setting the reduction rate Kscale small, it is possible to increase the time from when an abnormality is detected to when the control shifts to real-time control and the operator takes action. be able to.
- the shortening rate Kscale may be determined based on the spatial density of disturbance elements present in the robot's working environment, that is, the actual environment. For example, a work environment in which a relatively large number of obstacles are present is an environment with a high spatial density of disturbance elements.
- the spatial density of disturbance elements is high in this way, by setting the shortening rate Kscale small, it is possible to increase the time margin from when an abnormality is detected to when the control shifts to real-time control and the operator takes action. can.
- the reduction rate Kscale may be determined based on the difficulty of dealing with disturbance elements present in the robot's work environment, that is, the actual environment. For example, an obstacle whose speed changes relatively rapidly is a disturbance element that is difficult to deal with. If such a disturbance element that is difficult to deal with exists, by setting the reduction rate Kscale small, the time margin from when an abnormality is detected until real-time control is started and the operator takes action can be increased. You can take it.
- the reduction rate Kscale may be determined based on a combination of the frequency of occurrence, spatial density, and difficulty of dealing with disturbance elements present in the robot's working environment, that is, the actual environment.
- the environmental complexity may be defined based on a combination of the spatial density of disturbance elements and the difficulty of handling, and the shortening rate Kscale may be determined based on the environmental complexity.
- the reduction rate Kscale may be determined based on the time attribute of the private home. Specific examples of attributes of time at a private home include parent and child going out (daytime on weekdays), child going out (daytime on holiday), and parent and child staying home (nighttime), and the reduction rate Kscale is set to be small in accordance with this order.
- the reduction rate Kscale may be determined based on the attribute of the type of factory or warehouse. Specific examples of attributes of the type of factory or warehouse include unmanned factory, unmanned warehouse, manned factory, and manned warehouse, and the reduction rate Kscale is set to be small in this order.
- the reduction rate Kscale may be determined based on the time attribute of the retail store. Specific examples of the time attributes of a retail store include non-business hours, business hours (off-season hours), business hours (busy hours), etc., and the reduction rate Kscale is set to be smaller in accordance with this order.
- the reduction rate Kscale may be determined based on the attributes of the type of road that the robot travels on. Specific examples of road type attributes include expressways, arterial roads, city roads, private roads, parking lots, etc., and the reduction rate Kscale is set to be small in this order.
- the two simulators 12a and 12b simulate the operations of the two robots 20a and 20b, respectively.
- the simulator and the robot may correspond to each other in a 1:N ratio.
- the operations of two robots 20a and 20b placed in the same working environment W1 are simulated by one simulator 12a. This makes it possible to save computational resources required for simulation.
- the shortening rate Kscale can be expressed as follows using the real time Treal that actually elapses in the real environment and the simulation time Tsim that elapses within the environment model.
- the operator can recover from or avoid the abnormality by detecting and predicting the abnormality and then performing appropriate operations on the robot. There needs to be. This can be expressed as follows, where Dthr is the range in which a certain object (person/object) can cause significant disturbance to the robot.
- the positions of the robot and object at time T1 when the abnormality is predicted are respectively PfollowerT1 and PojectT1
- the positions of the robot and object at subsequent time t are Pfollower(t) and Poject(t)
- the speed is are expressed as Vfollower(Oopt(t), t) and Voject(t).
- Oopt(t) indicates the appropriate operation content when the operator deals with an abnormality.
- Each value of the parameters in FIG. 10 can be set based on the attribute of the road type, for example, expressway, main road, city road, etc. Further, it is assumed that the object is a moving truck, and a collision with an oncoming vehicle (object) is abnormal. At this time, if the operator does not perform any operation to change the direction of travel until he notices the abnormality, Omax is a positive constant. Furthermore, if the oncoming vehicle is in front of the robot (car) to be operated, then P'follower (T, Kscale) ⁇ Object (T), and the constraint equation can be transformed as follows.
- G2(T) is as follows.
- processing procedure described in the present disclosure may be regarded as a method having a series of these procedures. Alternatively, it may be regarded as a program for causing a computer to execute these series of procedures, or a recording medium that stores the program. Further, the processing described above is executed by a processor such as a CPU of a computer. Furthermore, the type of recording medium is not particularly limited because it does not affect the embodiments of the present disclosure.
- each component shown in the present disclosure may be realized by software or hardware.
- each component may be a software module implemented by software such as a microprogram, and each component may be implemented by a processor executing the software module.
- each component may be realized by a circuit block on a semiconductor chip (die), for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
- ASIC Application Specific Integrated Circuit
- FPGA Field Programmable Gate Array
- the number of constituent elements and the number of hardware realizing the constituent elements do not need to match.
- one processor or circuit may implement multiple components.
- one component may be implemented by multiple processors or circuits.
- processors described in this disclosure are not limited.
- it may be a CPU, an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), or the like.
- [2] a step of receiving the task information (S21); accumulating the received task information (S22); The method for controlling a plurality of robots according to [1], further comprising a step (S23) of causing the plurality of robots to operate in a real environment according to the operation instructions included in the accumulated task information. [3] acquiring actual observed values obtained as a result of operating the plurality of robots in the actual environment (S24); The method for controlling a plurality of robots according to [2], further comprising a step (S25) of detecting an abnormality based on a comparison between the predicted observed value and the actual observed value.
- the robot models include a plurality of robot models (121a, 121b) and an environment model (122a, 122b) corresponding to the plurality of robots, and the plurality of robot models are moved within the environment model at a speed faster than in real time based on the operation instruction.
- the simulation unit includes a plurality of simulators (12a, 12b), The control device for a plurality of robots according to [11], wherein each of the plurality of simulators simulates the operation of one or more of the plurality of robot models.
- Control system for multiple robots including the plurality of robots (20a, 20b) and a control device (10) for the plurality of robots
- the control device includes: an input unit (11) that receives operation commands from an operator (1) to the plurality of robots;
- the robot model includes a plurality of robot models (121a, 121b) and an environment model (122a, 122b) corresponding to the plurality of robots, and the operation of the plurality of robot models is performed in real time within the environment model based on the movement command.
- a simulation unit (12) for simulating at high speed and outputting the predicted observed values obtained as a result; a display unit (13) that displays the predicted observed value to the operator; a first storage unit (14a, 14b) that stores task information including the operation command and the predicted observation value; a transmitting unit (15) configured to transmit the task information stored in the first storage unit to the plurality of robots;
- Each of the plurality of robots is a receiving unit (21a, 21b) that receives the task information from the control device; a second storage unit (22a, 22b) that stores the task information received by the reception unit; a control unit (23a, 23b) for operating the machine in a real environment according to the operation command included in the task information stored in the second storage unit; Control system for multiple robots.
- Control device 11 Input section 12 Simulation section 12a Simulator 12b Simulator 12c Simulator 12d Simulator 13 Display section 14a Accumulation section 14b Accumulation section 15 Transmission section 16 Receiving section 20a Robot 20b Robot 20c Robot 20d Robot 21a Receiving section 21b Receiving section 22a Accumulation Part 22b Accumulation part 23a Control part 23b Control part 24a Travel motor 24b Travel motor 25a Internal world sensor 25b Internal world sensor 26a Outside world sensor 26b Outside world sensor 27a Abnormality detection part 27b Abnormality detection part 100 Control system 121a Robot model 121b Robot model 122a Environment model 122b Environment model B Operation base W1 Work environment W2 Work environment W3 Work environment
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
[Problem] To provide a multiple-robot control method that enables a single operator to control multiple robots. [Solution] A multiple-robot control method according to the present disclosure comprises: a step for receiving an operational command for multiple robots from an operator; a step for, by using an environment model and multiple robot models corresponding to the respective robots, causing the multiple robot models to operate faster than in real time within the environment model on the basis of the operational command, and acquiring predictive observation values obtained as a result; a step for displaying the predictive observation values toward the operator; a step for accumulating task information that contains operational commands and predictive observation values; and a step for transmitting the accumulated task information to the multiple robots.
Description
本開示は、複数のロボットの制御方法、複数のロボットの制御装置および複数のロボットの制御システムに関する。
The present disclosure relates to a method for controlling multiple robots, a control device for multiple robots, and a control system for multiple robots.
近年、家事、介護、介助等のサービス分野におけるロボットの活用が進められている。このような分野では、1つの作業環境内で複数のロボットが同時運用されることも多い。また、ロボットが自律的にすべてのタスクを実行することが困難な局面では、オペレータによって遠隔操作されるロボットが活用されることも多い(例えば、特許文献1を参照)。しかしながら、1台のロボットが1人のオペレータを占有する制御方式は、コスト的に効率が悪い。
In recent years, robots have been increasingly utilized in service fields such as housework, nursing care, and assistance. In such fields, multiple robots are often operated simultaneously within one work environment. Furthermore, in situations where it is difficult for a robot to autonomously perform all tasks, a robot that is remotely controlled by an operator is often utilized (see, for example, Patent Document 1). However, a control system in which one robot occupies one operator is not cost effective.
本開示は、上記の課題を解決するためのものであり、1人のオペレータによって複数のロボットを制御することができる、複数のロボットの制御方法、複数のロボットの制御装置および複数のロボットの制御システムを提供することを目的とする。
The present disclosure is intended to solve the above problems, and provides a method for controlling multiple robots, a control device for multiple robots, and a control device for multiple robots, in which multiple robots can be controlled by one operator. The purpose is to provide a system.
上記の課題を解決するために、本開示に係る複数のロボットの制御方法は、オペレータから複数のロボットへの動作命令を受信するステップと、複数のロボットに対応する複数のロボットモデルおよび環境モデルを用いて、動作命令に基づいて、環境モデル内で複数のロボットモデルの動作を実時間よりも高速に動作させ、結果として得られる予測観測値を取得するステップと、予測観測値をオペレータに向けて表示するステップと、動作命令および予測観測値を含むタスク情報を蓄積するステップと、蓄積されたタスク情報を複数のロボットに送信するステップとを含む。
In order to solve the above problems, a method for controlling multiple robots according to the present disclosure includes the steps of receiving operation commands from an operator to multiple robots, and controlling multiple robot models and environment models corresponding to the multiple robots. using the robot model to operate multiple robot models in an environment model faster than in real time based on movement instructions, obtaining predicted observed values as a result, and directing the predicted observed values to an operator. The method includes displaying, accumulating task information including motion instructions and predicted observed values, and transmitting the accumulated task information to a plurality of robots.
また、本開示に係る複数のロボットの制御装置は、オペレータから複数のロボットへの動作命令を受信する入力部と、複数のロボットに対応する複数のロボットモデルおよび環境モデルを含み、動作命令に基づいて、環境モデル内で複数のロボットモデルを実時間よりも高速に動作させ、結果として得られる予測観測値を出力するシミュレーション部と、予測観測値をオペレータに向けて表示する表示部と、動作命令および予測観測値を含むタスク情報を蓄積する蓄積部と、蓄積部に蓄積されているタスク情報を、複数のロボットに送信する送信部とを備える。
Further, a control device for multiple robots according to the present disclosure includes an input unit that receives operation commands from an operator to the multiple robots, and multiple robot models and environment models corresponding to the multiple robots, and includes a plurality of robot models and an environment model corresponding to the multiple robots, and A simulation unit that operates multiple robot models in an environment model faster than real time and outputs the resulting predicted observed values, a display unit that displays the predicted observed values to the operator, and a movement command. and a storage unit that stores task information including predicted observed values, and a transmission unit that transmits the task information stored in the storage unit to a plurality of robots.
また、本開示に係る複数のロボットの制御システムは、複数のロボットと、当該複数のロボットの制御装置とを含み、制御装置は、オペレータから複数のロボットへの動作命令を受信する入力部と、複数のロボットに対応する複数のロボットモデルおよび環境モデルを含み、動作命令に基づいて、環境モデル内で複数のロボットモデルの動作を実時間よりも高速にシミュレートし、結果として得られる予測観測値を出力するシミュレーション部と、予測観測値をオペレータに向けて表示する表示部と、動作命令および予測観測値を含むタスク情報を蓄積する第1の蓄積部と、第1の蓄積部に蓄積されているタスク情報を、複数のロボットに送信する送信部とを備え、複数のロボットのそれぞれは、制御装置からタスク情報を受信する受信部と、受信部によって受信されたタスク情報を蓄積する第2の蓄積部と、第2の蓄積部に蓄積されているタスク情報に含まれる動作命令に従って、自機を実環境で動作させる制御部とを備える。
Further, a control system for a plurality of robots according to the present disclosure includes a plurality of robots and a control device for the plurality of robots, and the control device includes an input unit that receives operation commands from an operator to the plurality of robots; Contains multiple robot models and environment models corresponding to multiple robots, based on motion instructions, simulates the motion of multiple robot models within the environment model faster than real time, and the resulting predicted observed values a simulation unit that outputs predicted observed values; a display unit that displays predicted observed values to the operator; a first storage unit that accumulates task information including operation commands and predicted observed values; a transmitter that transmits task information to a plurality of robots, and each of the plurality of robots includes a receiver that receives task information from a control device, and a second receiver that accumulates task information received by the receiver. The storage unit includes a storage unit, and a control unit that operates the device in a real environment according to operation instructions included in the task information stored in the second storage unit.
以下では、図面を参照しながら、本開示の実施の形態について説明する。図面において、同一または対応する要素には同じ参照符号を付して、詳細な説明は適宜省略する。
Embodiments of the present disclosure will be described below with reference to the drawings. In the drawings, the same or corresponding elements are given the same reference numerals, and detailed descriptions are omitted as appropriate.
(実施の形態1)
図1は、本開示の実施の形態1に係る複数のロボットの制御システム100の構成を示す図である。制御システム100は、オペレータ1によって操作される制御装置10と、制御装置10によって制御される2台のロボット20aおよび20bとを含んでいる。制御装置10は操作拠点Bに配置されている。ロボット20aは作業環境W1に配置されており、ロボット20bは作業環境W2に配置されている。通常、操作拠点B、作業環境W1およびW2は、それぞれ離れた場所にあることが想定されるが、同一の場所にあってもよい。 (Embodiment 1)
FIG. 1 is a diagram showing the configuration of acontrol system 100 for multiple robots according to Embodiment 1 of the present disclosure. The control system 100 includes a control device 10 operated by an operator 1 and two robots 20a and 20b controlled by the control device 10. The control device 10 is located at the operation base B. The robot 20a is placed in a working environment W1, and the robot 20b is placed in a working environment W2. Normally, the operation base B and the work environments W1 and W2 are assumed to be located at separate locations, but they may be located at the same location.
図1は、本開示の実施の形態1に係る複数のロボットの制御システム100の構成を示す図である。制御システム100は、オペレータ1によって操作される制御装置10と、制御装置10によって制御される2台のロボット20aおよび20bとを含んでいる。制御装置10は操作拠点Bに配置されている。ロボット20aは作業環境W1に配置されており、ロボット20bは作業環境W2に配置されている。通常、操作拠点B、作業環境W1およびW2は、それぞれ離れた場所にあることが想定されるが、同一の場所にあってもよい。 (Embodiment 1)
FIG. 1 is a diagram showing the configuration of a
制御装置10とロボット20aとは、無線通信を介して互いに通信することができる。同様に、制御装置10とロボット20bとは、無線通信を介して互いに通信することができる。オペレータ1は、制御装置10を操作することにより、ロボット20aおよび20bを制御することができる。換言すれば、オペレータ1は、制御装置10を介してロボット20aおよび20bを制御することができる。
The control device 10 and the robot 20a can communicate with each other via wireless communication. Similarly, the control device 10 and the robot 20b can communicate with each other via wireless communication. Operator 1 can control robots 20a and 20b by operating control device 10. In other words, the operator 1 can control the robots 20a and 20b via the control device 10.
ロボット20aおよび20bの種類は特に限定されるものではないが、一例として、家庭内の家事支援に用いられるマニュピュレータロボットである。なお、制御装置10によって制御されるロボットの数は2台に限定されるものではなく、3台以上であってもよい。また、1つの作業環境に複数のロボットが存在してもよい。
Although the types of robots 20a and 20b are not particularly limited, one example is a manipulator robot used for domestic housework support. Note that the number of robots controlled by the control device 10 is not limited to two, and may be three or more. Furthermore, multiple robots may exist in one work environment.
(制御装置の構成)
図2は、制御装置10とロボット20aおよび20bの詳細な構成を示す図である。制御装置10は、入力部11と、シミュレーション部12と、表示部13と、蓄積部14aおよび14bと、送信部15と、受信部16とを備えている。 (Configuration of control device)
FIG. 2 is a diagram showing the detailed configuration of thecontrol device 10 and the robots 20a and 20b. The control device 10 includes an input section 11, a simulation section 12, a display section 13, storage sections 14a and 14b, a transmission section 15, and a reception section 16.
図2は、制御装置10とロボット20aおよび20bの詳細な構成を示す図である。制御装置10は、入力部11と、シミュレーション部12と、表示部13と、蓄積部14aおよび14bと、送信部15と、受信部16とを備えている。 (Configuration of control device)
FIG. 2 is a diagram showing the detailed configuration of the
入力部11は、例えばキーボードまたはマウス等によって構成されており、オペレータ1からロボット20aおよび20bへの動作命令を受信する。動作命令の具体例としては、ロボットの前進、後進、方向転換、加速、減速等である。
The input unit 11 is composed of, for example, a keyboard or a mouse, and receives operation commands from the operator 1 to the robots 20a and 20b. Specific examples of operation commands include forward movement, backward movement, direction change, acceleration, and deceleration of the robot.
シミュレーション部12は、例えばパーソナルコンピュータ等によって構成されている。シミュレーション部12は、オペレータ1から入力部11を介して受信されたロボット20aおよび20bへの動作命令に基づいて、ロボット20aおよび20bの動作をシミュレートする。詳細には、シミュレーション部12は、ロボット20aの動作をシミュレートするシミュレータ12aと、ロボット20bの動作をシミュレートするシミュレータ12bとを含んでいる。
The simulation unit 12 is configured by, for example, a personal computer. The simulation unit 12 simulates the movements of the robots 20a and 20b based on the movement commands for the robots 20a and 20b received from the operator 1 via the input unit 11. Specifically, the simulation unit 12 includes a simulator 12a that simulates the operation of the robot 20a, and a simulator 12b that simulates the operation of the robot 20b.
図3は、シミュレータ12aおよび12bと、後述する蓄積部14aおよび14bの論理的な構成を示す図である。シミュレータ12aは、ロボット20aに対応するロボットモデル121aと、作業環境W1に対応する環境モデル122aとを含んでいる。同様に、シミュレータ12bは、ロボット20bに対応するロボットモデル121bと、作業環境W2に対応する環境モデル122bとを含んでいる。
FIG. 3 is a diagram showing the logical configuration of simulators 12a and 12b and storage units 14a and 14b, which will be described later. The simulator 12a includes a robot model 121a corresponding to the robot 20a and an environment model 122a corresponding to the work environment W1. Similarly, the simulator 12b includes a robot model 121b corresponding to the robot 20b and an environment model 122b corresponding to the work environment W2.
シミュレータ12aは、オペレータ1からの動作命令に基づいて、環境モデル122a内でロボットモデル121bを実時間よりも高速に動作させ、結果として得られる予測観測値を出力する。予測観測値の具体例としては、ロボットモデル121aの位置、速度、加速度等の内界の情報、および、ロボットモデル121aの周囲に存在する障害物の位置、速度、加速度等の外界の情報等である。
The simulator 12a operates the robot model 121b within the environment model 122a at a higher speed than in real time based on the operation command from the operator 1, and outputs the predicted observation value obtained as a result. Specific examples of predicted observed values include information on the internal world such as the position, velocity, and acceleration of the robot model 121a, and information on the external world such as the position, velocity, and acceleration of obstacles that exist around the robot model 121a. be.
同様に、シミュレータ12bは、オペレータ1からの動作命令に基づいて、環境モデル122b内でロボットモデル121bを実時間よりも高速に動作させ、結果として得られる予測観測値を出力する。予測観測値の具体例としては、ロボットモデル121bの位置、速度、加速度等の内界の情報、および、ロボットモデル121bの周囲に存在する障害物の位置、速度、加速度等の外界の情報等である。
Similarly, the simulator 12b operates the robot model 121b within the environment model 122b at a higher speed than in real time based on the operation command from the operator 1, and outputs the resulting predicted observation value. Specific examples of predicted observed values include information on the internal world such as the position, velocity, and acceleration of the robot model 121b, and information on the external world such as the position, velocity, and acceleration of obstacles that exist around the robot model 121b. be.
環境モデル122aおよび122b内において、ロボットモデル121aおよび121bは実時間よりも高速に動作する。詳細には、実時間、すなわち実環境で現実に経過する時間をTreal、環境モデル内で経過するシミュレーション時間をTsimとすれは、両者の間には以下の関係が成立する。
Within the environment models 122a and 122b, the robot models 121a and 121b operate faster than in real time. In detail, let Treal be the real time, that is, the time that actually elapses in the real environment, and Tsim be the simulation time that elapses within the environment model, and the following relationship holds between them.
短縮率Kscale=Tsim/Treal
Shortening rate Kscale=Tsim/Treal
Shortening rate Kscale=Tsim/Treal
上式において、短縮率Kscaleは1以上の実数である。例えば、短縮率Kscale=10の場合、環境モデル内でシミュレーション時間が100秒経過した時に、実時間では10秒しか経過していないことになる。
In the above formula, the shortening rate Kscale is a real number of 1 or more. For example, when the reduction rate Kscale=10, when 100 seconds of simulation time has elapsed in the environment model, only 10 seconds have elapsed in real time.
図2に戻って、表示部13は、例えば液晶ディスプレイ等によって構成されている。表示部13は、シミュレータ12aから出力されるロボット20aに対応する予測観測値と、シミュレータ12bから出力されるロボット20bに対応する予測観測値とを、オペレータ1に向けて表示する。オペレータ1が体感する時間は実時間であるから、例えば、短縮率Kscale=10の場合、環境モデル内で経過するシミュレーション時間を、オペレータ1は1/10の時間で体感することができる。したがって、原理的には、オペレータ1は、環境モデル内の最大10台のロボットモデルを同時に操作することができる。
Returning to FIG. 2, the display section 13 is composed of, for example, a liquid crystal display. The display unit 13 displays for the operator 1 the predicted observed values corresponding to the robot 20a output from the simulator 12a and the predicted observed values corresponding to the robot 20b outputted from the simulator 12b. Since the time experienced by the operator 1 is real time, for example, when the reduction rate Kscale=10, the operator 1 can experience the simulation time that passes within the environment model in 1/10 of the time. Therefore, in principle, the operator 1 can simultaneously operate up to 10 robot models within the environment model.
蓄積部14aおよび14bは、例えばメモリデバス等によって構成されている。蓄積部14aは、オペレータ1からの動作命令と、当該動作命令に基づいて環境モデル122a内でロボットモデル121aを動作させた結果として得られる予測観測値と、環境モデル122a内の時刻情報とを含む、ロボット20aに対応するタスク情報を蓄積する(図3を参照)。同様に、蓄積部14bは、オペレータ1からの動作命令と、当該動作命令に基づいて環境モデル122b内でロボットモデル121bを動作させた結果として得られる予測観測値と、環境モデル122b内の時刻情報とを含む、ロボット20bに係るタスク情報を蓄積する(図3を参照)。
The storage units 14a and 14b are configured by, for example, a memory device or the like. The storage unit 14a includes operation commands from the operator 1, predicted observed values obtained as a result of operating the robot model 121a within the environment model 122a based on the operation commands, and time information within the environment model 122a. , accumulates task information corresponding to the robot 20a (see FIG. 3). Similarly, the storage unit 14b stores operation commands from the operator 1, predicted observed values obtained as a result of operating the robot model 121b within the environment model 122b based on the operation commands, and time information within the environment model 122b. (See FIG. 3).
図3において、蓄積部14aの1番目に蓄積されているタスク情報は、環境モデル122a内の時刻Tstにおけるタスク情報である。2番目に蓄積されているタスク情報は、環境モデル122a内の時刻Tst+ΔTにおけるタスク情報である。N番目に蓄積されているタスク情報は、環境モデル122a内の時刻Tst+NΔTにおけるタスク情報である。ここで、ΔTは環境モデル122a内で経過する時間、すなわちシミュレーション時間である。
In FIG. 3, the task information stored first in the storage unit 14a is the task information at time Tst in the environment model 122a. The second stored task information is the task information at time Tst+ΔT in the environment model 122a. The Nth accumulated task information is the task information at time Tst+NΔT in the environment model 122a. Here, ΔT is the time that passes within the environment model 122a, that is, the simulation time.
同様に、蓄積部14bの1番目に蓄積されているタスク情報は、環境モデル122b内の時刻Tstにおけるタスク情報である。2番目に蓄積されているタスク情報は、環境モデル122b内の時刻Tst+ΔTにおけるタスク情報である。N番目に蓄積されているタスク情報は、環境モデル122b内の時刻Tst+NΔTにおけるタスク情報である。ここで、ΔTは環境モデル122b内で経過する時間、すなわちシミュレーション時間である。
Similarly, the task information stored first in the storage unit 14b is the task information at time Tst in the environment model 122b. The second stored task information is the task information at time Tst+ΔT in the environment model 122b. The Nth accumulated task information is the task information at time Tst+NΔT in the environment model 122b. Here, ΔT is the time elapsed within the environment model 122b, that is, the simulation time.
図2に戻って、送信部15は、例えば無線通信インターフェース等によって構成されており、蓄積部14aに蓄積されているタスク情報を、対応するロボット20aに一括して送信する。また、送信部15は、蓄積部14bに蓄積されているタスク情報を、対応するロボット20bに一括して送信する。
Returning to FIG. 2, the transmitting unit 15 is configured by, for example, a wireless communication interface, and transmits the task information stored in the storage unit 14a all at once to the corresponding robot 20a. Further, the transmitter 15 transmits the task information stored in the storage section 14b to the corresponding robot 20b all at once.
受信部16は、例えば無線通信インターフェース等によって構成されており、ロボット20aまたは20bから後述する異常検知情報を受信する。表示部13は、受信部16によって受信された異常検知情報をオペレータ1に向けて表示する。
The receiving unit 16 is configured by, for example, a wireless communication interface, and receives abnormality detection information, which will be described later, from the robot 20a or 20b. The display unit 13 displays the abnormality detection information received by the receiving unit 16 for the operator 1 .
(ロボットの構成)
次に、ロボット20aおよび20bの構成について説明する。ただし、ロボット20aおよび20bの構成は同一であるので、ここではロボット20aについて説明する。ロボット20aは、受信部21aと、蓄積部22aと、制御部23aと、走行モーター24aと、内界センサー25aと、外界センサー26aと、異常検知部27aとを備えている。 (Robot configuration)
Next, the configurations of the robots 20a and 20b will be explained. However, since the configurations of the robots 20a and 20b are the same, only the robot 20a will be described here. The robot 20a includes a receiving section 21a, a storage section 22a, a control section 23a, a traveling motor 24a, an internal sensor 25a, an external sensor 26a, and an abnormality detecting section 27a.
次に、ロボット20aおよび20bの構成について説明する。ただし、ロボット20aおよび20bの構成は同一であるので、ここではロボット20aについて説明する。ロボット20aは、受信部21aと、蓄積部22aと、制御部23aと、走行モーター24aと、内界センサー25aと、外界センサー26aと、異常検知部27aとを備えている。 (Robot configuration)
Next, the configurations of the
受信部21aは、例えば無線通信インターフェース等によって構成されており、制御装置10から送信されるタスク情報を一括して受信する。このタスク情報は、制御装置10の蓄積部14aに蓄積されていたものである。
The receiving unit 21a is configured by, for example, a wireless communication interface, and receives the task information transmitted from the control device 10 all at once. This task information has been stored in the storage section 14a of the control device 10.
蓄積部22aは、例えばメモリデバイス等によって構成されており、受信部21aによって一括して受信されたタスク情報を蓄積する。図4は、作業環境、すなわち実環境内のロボット20aおよび20bと、それらの蓄積部22aおよび22bの論理的な構成を示す図である。
The storage unit 22a is configured by, for example, a memory device, and stores the task information collectively received by the reception unit 21a. FIG. 4 is a diagram showing the logical configuration of robots 20a and 20b and their storage units 22a and 22b in a working environment, that is, a real environment.
図4において、蓄積部22aの1番目に蓄積されているタスク情報は、実環境の時刻Tstにおけるタスク情報である。2番目に蓄積されているタスク情報は、実環境の時刻Tst+Δτにおけるタスク情報である。N番目に蓄積されているタスク情報は、実環境の時刻Tst+NΔτにおけるタスク情報である。ここで、実環境の時刻Tstと環境モデル内の時刻Tstとは等しい。また、Δτは実環境で経過する時間、すなわち実時間であり、Δτ=Ksacle・ΔTの関係が成立する。
In FIG. 4, the task information stored first in the storage unit 22a is the task information at time Tst in the actual environment. The second stored task information is the task information at time Tst+Δτ in the actual environment. The Nth accumulated task information is the task information at time Tst+NΔτ in the actual environment. Here, the time Tst in the actual environment and the time Tst in the environment model are equal. Further, Δτ is the time that passes in the real environment, that is, real time, and the relationship Δτ=Ksacle·ΔT holds true.
図2に戻って、制御部23aは、例えばマイクロコンピュータ等によって構成されている。制御部23aは、蓄積部22aに蓄積されているタスク情報を読み出し、当該タスク情報に含まれる動作命令に従って、走行モーター24a等を制御することにより、実環境、すなわち作業環境W1におけるロボット20aの動作を制御する(図4を参照)。ロボット20aの動作の具体例としては、ロボット20aの前進、後進、方向転換、加速、減速等である。
Returning to FIG. 2, the control unit 23a is configured by, for example, a microcomputer. The control unit 23a reads the task information stored in the storage unit 22a, and controls the travel motor 24a, etc. according to the operation command included in the task information, thereby adjusting the operation of the robot 20a in the real environment, that is, the work environment W1. (see Figure 4). Specific examples of the movements of the robot 20a include forward movement, backward movement, direction change, acceleration, and deceleration of the robot 20a.
また、制御部23aは、内界センサー25aおよび外界センサー26aを介して、ロボット20aの動作の結果として得られる実観測値を取得する。実観測値の具体例としては、ロボット20aの位置、速度、加速度等の内界の情報、および、ロボット20aの周囲に存在する障害物の位置、速度、加速度等の外界の情報等である。
Furthermore, the control unit 23a acquires actual observed values obtained as a result of the operation of the robot 20a via the internal world sensor 25a and the external world sensor 26a. Specific examples of actual observed values include information on the internal world such as the position, velocity, and acceleration of the robot 20a, and information on the external world such as the position, velocity, and acceleration of obstacles existing around the robot 20a.
異常検知部27aは、例えばマイクロコンピュータ等によって構成されている。異常検知部27aは、タスク情報に含まれていた予測観測値と、内界センサー25aおよび外界センサー26aを介して取得された実観測値との比較に基づいて、予測観測値と実観測値との乖離、すなわち異常を検知する(図4を参照)。例えば、予測観測値における周囲の障害物の位置および速度と、実観測値における周囲の障害物の位置および速度との差が所定の閾値以上である場合には、異常と判定される。異常検知部27aは、異常を検知した場合には、当該異常の内容を含む異常検知情報を、無線通信を介して制御装置10に送信する。
The abnormality detection unit 27a is configured by, for example, a microcomputer. The anomaly detection unit 27a determines the predicted observed value and the actual observed value based on the comparison between the predicted observed value included in the task information and the actual observed value acquired via the internal sensor 25a and the external sensor 26a. Detects a deviation, that is, an abnormality (see FIG. 4). For example, if the difference between the position and speed of the surrounding obstacles in the predicted observed values and the position and speed of the surrounding obstacles in the actual observed values is greater than or equal to a predetermined threshold, it is determined that there is an abnormality. When detecting an abnormality, the abnormality detection unit 27a transmits abnormality detection information including the details of the abnormality to the control device 10 via wireless communication.
(制御システムの動作)
次に、本実施の形態1に係る複数のロボットの制御システム100の動作について、図5のフローチャートを参照して説明する。制御システム100の動作は、制御装置10によって実行されるステップS11~S16の操作フェーズと、ロボット20aおよび20bによって実行されるステップS21~S27の実行フェーズとに分かれている。 (Operation of control system)
Next, the operation of thecontrol system 100 for multiple robots according to the first embodiment will be described with reference to the flowchart in FIG. 5. The operation of the control system 100 is divided into an operation phase of steps S11 to S16 executed by the control device 10 and an execution phase of steps S21 to S27 executed by the robots 20a and 20b.
次に、本実施の形態1に係る複数のロボットの制御システム100の動作について、図5のフローチャートを参照して説明する。制御システム100の動作は、制御装置10によって実行されるステップS11~S16の操作フェーズと、ロボット20aおよび20bによって実行されるステップS21~S27の実行フェーズとに分かれている。 (Operation of control system)
Next, the operation of the
実行フェーズのステップS11において、制御装置10の入力部11は、オペレータ1からロボット20aへの1つの動作命令を受信する。また、制御装置10の入力部11は、オペレータ1からロボット20bへの1つの動作命令を受信する。
In step S11 of the execution phase, the input unit 11 of the control device 10 receives one operation command from the operator 1 to the robot 20a. Furthermore, the input unit 11 of the control device 10 receives one operation command from the operator 1 to the robot 20b.
ステップS12において、制御装置10のシミュレーション部12は、上記のステップS11で受信された動作命令に基づいて、ロボット20aおよび20bの動作を実時間よりも高速にシミュレートする。詳細には、シミュレータ12aは、1つの動作命令に基づいて、環境モデル122a内でロボットモデル121aを実時間よりも高速に動作させ、結果として得られる1つの予測観測値を出力する。同様に、シミュレータ12bは、1つの動作命令に基づいて、環境モデル122b内でロボットモデル121bを実時間よりも高速に動作させ、結果として得られる1つの予測観測値を出力する。
In step S12, the simulation unit 12 of the control device 10 simulates the movements of the robots 20a and 20b faster than in real time, based on the movement command received in step S11 above. In detail, the simulator 12a operates the robot model 121a within the environment model 122a at a higher speed than in real time based on one operation command, and outputs one predicted observation value obtained as a result. Similarly, the simulator 12b operates the robot model 121b within the environment model 122b at a higher speed than in real time based on one operation instruction, and outputs one predicted observed value obtained as a result.
ステップS13において、制御装置10の表示部13は、上記のステップS12で出力されたロボット20aに対応する1つの予測観測値と、ロボット20bに対応する1つの予測観測値とをオペレータ1に向けて表示する。
In step S13, the display unit 13 of the control device 10 displays one predicted observation value corresponding to the robot 20a and one predicted observation value corresponding to the robot 20b output in step S12 above to the operator 1. indicate.
ステップS14において、制御装置10の蓄積部14aは、上記のステップS11で受信されたロボット20aへの1つの動作命令と、当該1つの動作命令の結果として上記のステップS12で出力されたロボット20aに対応する1つの予測観測値と、環境モデル122a内の時刻情報とを含む、1つのタスク情報を蓄積する。同様に、制御装置10の蓄積部14bは、上記のステップS11で受信されたロボット20bへの1つの動作命令と、当該1つの動作命令の結果として上記のステップS12で出力されたロボット20bに対応する1つの予測観測値と、環境モデル122b内の時刻情報とを含む、1つのタスク情報を蓄積する。
In step S14, the storage unit 14a of the control device 10 receives the one motion command for the robot 20a received in step S11 above and the robot 20a output in step S12 as a result of the one motion command. One piece of task information including one corresponding predicted observed value and time information in the environment model 122a is accumulated. Similarly, the storage unit 14b of the control device 10 corresponds to one motion command to the robot 20b received in step S11 above and the robot 20b outputted in step S12 above as a result of the one motion command. One piece of task information is accumulated, including one predicted observation value to be performed and time information in the environment model 122b.
ステップS15において、制御装置10の入力部11は、オペレータ1から引き続き動作命令が受信されるか否かを判定する。オペレータ1から引き続き動作命令が受信される場合(S15=NO)には、上記のステップS11に戻り、そうでない場合(S15=YES)には、ステップS16に進む。
In step S15, the input unit 11 of the control device 10 determines whether or not an operation command is subsequently received from the operator 1. If the operation command is subsequently received from the operator 1 (S15=NO), the process returns to step S11, and if not (S15=YES), the process proceeds to step S16.
ステップS16において、制御装置10の送信部15は、蓄積部14aに蓄積されているタスク情報を、対応するロボット20aに一括して送信する。また、制御装置10の送信部15は、蓄積部14bに蓄積されているタスク情報を、対応するロボット20bに一括して送信する。ここまでで、制御装置10によって実行される操作フェーズが終了し、ロボット20aおよび20bによって実行される実行フェーズに移行する。
In step S16, the transmitter 15 of the control device 10 transmits the task information stored in the storage unit 14a all at once to the corresponding robot 20a. Furthermore, the transmitter 15 of the control device 10 transmits the task information stored in the storage section 14b to the corresponding robot 20b all at once. Up to this point, the operation phase executed by the control device 10 has ended, and the process moves to the execution phase executed by the robots 20a and 20b.
実行フェーズのステップS21において、ロボット20aの受信部21aは、制御装置10からタスク情報を一括して受信する。同様に、ロボット20bの受信部21bは、制御装置10からタスク情報を一括して受信する。
In step S21 of the execution phase, the receiving unit 21a of the robot 20a receives task information from the control device 10 all at once. Similarly, the receiving unit 21b of the robot 20b receives task information all at once from the control device 10.
ステップS22において、ロボット20aの蓄積部22aは、上記のステップS21で一括して受信されたタスク情報を蓄積する。この際、タスク情報に含まれている環境モデル122a内の時刻情報Tst+nΔTは、実環境の時刻情報Tst+nΔτに変換される。ただし、nは0~Nの自然数であり、Δτ=Kscale・ΔTの関係が成立する。
In step S22, the storage unit 22a of the robot 20a stores the task information collectively received in step S21 above. At this time, time information Tst+nΔT in the environment model 122a included in the task information is converted to time information Tst+nΔτ of the actual environment. However, n is a natural number from 0 to N, and the relationship Δτ=Kscale·ΔT holds true.
同様に、ロボット20bの蓄積部22bは、上記のステップS21で一括して受信されたタスク情報を蓄積する。この際、タスク情報に含まれている環境モデル122b内の時刻情報Tst+nΔTは、実環境の時刻情報Tst+nΔτに変換される。ただし、nは0~Nの自然数であり、Δτ=Kscale・ΔTの関係が成立する。
Similarly, the storage unit 22b of the robot 20b stores the task information received all at once in step S21 above. At this time, time information Tst+nΔT in the environment model 122b included in the task information is converted to time information Tst+nΔτ of the actual environment. However, n is a natural number from 0 to N, and the relationship Δτ=Kscale·ΔT holds true.
ステップS23において、ロボット20aの制御部23aは、蓄積部22aから1つのタスク情報を取り出し、当該1つのタスク情報に含まれる1つの動作命令に従って、走行モーター24a等を制御することにより、実環境、すなわち作業環境W1におけるロボット20aの動作を制御する。ロボット20aの動作の具体例としては、ロボット20aの前進、後進、方向転換、加速、減速等である。
In step S23, the control unit 23a of the robot 20a retrieves one piece of task information from the storage unit 22a, and controls the traveling motor 24a and the like according to one operation command included in the one task information, thereby controlling the real environment. That is, the operation of the robot 20a in the work environment W1 is controlled. Specific examples of the movements of the robot 20a include forward movement, backward movement, direction change, acceleration, and deceleration of the robot 20a.
同様に、ロボット20bの制御部23bは、蓄積部22bから1つのタスク情報を取り出し、当該1つのタスク情報に含まれる1つの動作命令に従って、走行モーター24b等を制御することにより、実環境、すなわち作業環境W2におけるロボット20bの動作を制御する。ロボット20bの動作の具体例としては、ロボット20bの前進、後進、方向転換、加速、減速等である。
Similarly, the control unit 23b of the robot 20b retrieves one piece of task information from the storage unit 22b, and controls the traveling motor 24b etc. according to one operation command included in the one task information, thereby controlling the real environment, i.e. The operation of the robot 20b in the work environment W2 is controlled. Specific examples of the operations of the robot 20b include forward movement, backward movement, direction change, acceleration, deceleration, etc. of the robot 20b.
ステップS24において、ロボット20aの制御部23aは、内界センサー25aおよび外界センサー26aを介して、上記のステップS23の動作の結果として得られる1つの実観測値を取得する。1つの実観測値の具体例としては、ロボット20aの位置、速度、加速度等の内界の情報、および、ロボット20aの周囲に存在する障害物の位置、速度、加速度等の外界の情報等である。
In step S24, the control unit 23a of the robot 20a acquires one actual observation value obtained as a result of the operation in step S23 above, via the internal world sensor 25a and the external world sensor 26a. A specific example of one actual observation value is information on the inner world such as the position, velocity, and acceleration of the robot 20a, and information on the outside world such as the position, velocity, and acceleration of obstacles that exist around the robot 20a. be.
同様に、ロボット20bの制御部23bは、内界センサー25bおよび外界センサー26bを介して、上記のステップS23の動作の結果として得られる1つの実観測値を取得する。1つの実観測値の具体例としては、ロボット20bの位置、速度、加速度等の内界の情報、および、ロボット20bの周囲に存在する障害物の位置、速度、加速度等の外界の情報等である。
Similarly, the control unit 23b of the robot 20b obtains one actual observation value obtained as a result of the operation in step S23 above via the internal world sensor 25b and the external world sensor 26b. A specific example of one actual observation value is information on the internal world such as the position, velocity, and acceleration of the robot 20b, and information on the external world such as the position, velocity, and acceleration of obstacles that exist around the robot 20b. be.
ステップS25において、ロボット20aの異常検知部27aは、上記のステップS23で取り出された1つのタスク情報に含まれていた1つの予測観測値と、上記のステップS24で取得された1つの実観測値との比較に基づいて、予測観測値と実観測値との乖離、すなわち異常の有無を判定する。例えば、予測観測値における周囲の障害物の位置および速度と、実観測値における周囲の障害物の位置および速度との差が所定の閾値以上である場合には、異常と判定される。
In step S25, the abnormality detection unit 27a of the robot 20a detects one predicted observation value included in one piece of task information extracted in step S23 above and one actual observation value acquired in step S24 above. Based on the comparison, the deviation between the predicted observed value and the actual observed value, that is, the presence or absence of an abnormality, is determined. For example, if the difference between the position and speed of the surrounding obstacles in the predicted observed values and the position and speed of the surrounding obstacles in the actual observed values is greater than or equal to a predetermined threshold, it is determined that there is an abnormality.
異常が検知された場合(S25=YES)には、異常検知部27aは、当該異常の内容を含む異常検知情報を、無線通信を介して制御装置10に送信し(ステップS27)、ロボット20aの制御が終了する(END)。この後、ロボット20aの制御は、オペレータ1によるリアルタイム制御に移行する。これにより、オペレータ1は、例えば障害物の回避動作をリアルタイムに制御することができる。一方、異常が検知されない場合(S25=NO)には、ステップS26に進む。
If an abnormality is detected (S25=YES), the abnormality detection unit 27a transmits abnormality detection information including the details of the abnormality to the control device 10 via wireless communication (step S27), and Control ends (END). After this, control of the robot 20a shifts to real-time control by the operator 1. Thereby, the operator 1 can control the obstacle avoidance operation in real time, for example. On the other hand, if no abnormality is detected (S25=NO), the process advances to step S26.
同様に、ロボット20bの異常検知部27bは、上記のステップS23で取り出された1つのタスク情報に含まれていた1つの予測観測値と、上記のステップS24で取得された1つの実観測値との比較に基づいて、予測観測値と実観測値との乖離、すなわち異常の有無を判定する。例えば、予測観測値における周囲の障害物の位置および速度と、実観測値における周囲の障害物の位置および速度との差が所定の閾値以上である場合には、異常と判定される。
Similarly, the abnormality detection unit 27b of the robot 20b detects one predicted observation value included in one task information extracted in step S23 above and one actual observation value acquired in step S24 above. Based on the comparison, the deviation between the predicted observed value and the actual observed value, that is, the presence or absence of an abnormality, is determined. For example, if the difference between the position and speed of the surrounding obstacles in the predicted observed values and the position and speed of the surrounding obstacles in the actual observed values is greater than or equal to a predetermined threshold, it is determined that there is an abnormality.
異常が検知された場合(S25=YES)には、異常検知部27bは、当該異常の内容を含む異常検知情報を、無線通信を介して制御装置10に送信し(ステップS27)、ロボット20bの制御が終了する(END)。この後、ロボット20bの制御は、オペレータ1によるリアルタイム制御に移行する。これにより、オペレータ1は、例えば障害物の回避動作をリアルタイムに制御することができる。一方、異常が検知されない場合(S25=NO)には、ステップS26に進む。
If an abnormality is detected (S25=YES), the abnormality detection unit 27b transmits abnormality detection information including the details of the abnormality to the control device 10 via wireless communication (step S27), and Control ends (END). After this, control of the robot 20b shifts to real-time control by the operator 1. Thereby, the operator 1 can control the obstacle avoidance operation in real time, for example. On the other hand, if no abnormality is detected (S25=NO), the process advances to step S26.
ステップS26において、ロボット20aの制御部23aは、蓄積部22aにタスク情報が残っているか否かを判定する。蓄積部22aにタスク情報が残っている場合(S26=NO)には、上記のステップS23に戻り、蓄積部22aが空である場合(S26=YES)には、ロボット20aの制御が終了する(END)。
In step S26, the control unit 23a of the robot 20a determines whether task information remains in the storage unit 22a. If the task information remains in the storage unit 22a (S26=NO), the process returns to step S23, and if the storage unit 22a is empty (S26=YES), the control of the robot 20a ends ( END).
同様に、ロボット20bの制御部23bは、蓄積部22bにタスク情報が残っているか否かを判定する。蓄積部22bにタスク情報が残っている場合(S26=NO)には、上記のステップS23に戻り、蓄積部22bが空である場合(S26=YES)には、ロボット20bの制御が終了する(END)。
Similarly, the control unit 23b of the robot 20b determines whether task information remains in the storage unit 22b. If the task information remains in the storage unit 22b (S26=NO), the process returns to step S23, and if the storage unit 22b is empty (S26=YES), the control of the robot 20b ends ( END).
以上説明したように、本実施の形態1に係る複数のロボットの制御システムは、複数のロボットに対応する複数のロボットモデルおよび環境モデルを備えている。制御装置は、オペレータから受信される複数のロボットへの動作命令に基づいて、環境モデル内で複数のロボットモデルの動作を実時間よりも高速に動作させ、結果として得られる予測観測値を取得する。制御装置は、動作命令および予測観測値を含むタスク情報を蓄積し、蓄積されたタスク情報を、複数のロボットに送信する。このような特徴により、本実施の形態1に係る制御システムでは、1人のオペレータによって複数のロボットを制御することができる。
As described above, the control system for multiple robots according to the first embodiment includes multiple robot models and environment models corresponding to the multiple robots. The control device causes the plurality of robot models to operate within the environment model at a higher speed than in real time based on the movement commands for the plurality of robots received from the operator, and obtains predicted observed values obtained as a result. . The control device accumulates task information including operation commands and predicted observed values, and transmits the accumulated task information to a plurality of robots. Due to these features, the control system according to the first embodiment allows one operator to control a plurality of robots.
各ロボットは、制御装置から受信されたタスク情報を蓄積し、蓄積されたタスク情報に含まれる動作命令に従って、実環境で動作する。これにより、制御装置から各ロボットにタスク情報を逐次送信するのと比べて、制御装置とロボットとの間の通信遅延の影響を最小限に抑えることができる。
Each robot accumulates task information received from the control device and operates in the real environment according to operation instructions included in the accumulated task information. As a result, compared to sequentially transmitting task information from the control device to each robot, the influence of communication delays between the control device and the robots can be minimized.
図6の上側のタイムチャートは、本実施の形態1に係る制御システムにおいて、制御装置が蓄積したタスク情報をロボットに一括して送信・実行するタイムチャートである。図6の下側のタイムチャートは、従来技術に見られるように、制御装置からロボットにタスク情報を逐次的に送信・実行するタイムチャートである。両者の比較から明らかであるように、本実施の形態1に係る制御システムでは、制御装置とロボットとの間の通信遅延の影響を最小限に抑えることができる。
The upper time chart in FIG. 6 is a time chart for collectively transmitting and executing task information accumulated by the control device to the robot in the control system according to the first embodiment. The lower time chart in FIG. 6 is a time chart in which task information is sequentially transmitted and executed from the control device to the robot, as seen in the prior art. As is clear from the comparison between the two, in the control system according to the first embodiment, the influence of communication delay between the control device and the robot can be minimized.
各ロボットは、実環境で動作した結果として得られる実観測値を取得し、予測観測値と実観測値との比較に基づいて、異常を検知する。これにより、各ロボットは、予測観測値と実観測値との乖離、すなわち異常をリアルタイムに検知することがでる。
Each robot acquires actual observed values obtained as a result of operating in a real environment, and detects anomalies based on a comparison between the predicted observed values and the actual observed values. This allows each robot to detect deviations between predicted observed values and actual observed values, that is, abnormalities, in real time.
異常が検知された場合には、当該異常が検知されたロボットの制御は、オペレータによるリアルタイム制御に移行する。これにより、オペレータは、異常検知時にロボットをリアルタイムに制御することができる。
If an abnormality is detected, control of the robot where the abnormality has been detected shifts to real-time control by the operator. This allows the operator to control the robot in real time when an abnormality is detected.
オペレータが体感する実時間Trealと、環境モデル内で経過するシミュレーション時間Tsimとの間には、短縮率Kscale=Tsim/Trealの関係が成立し、短縮率Kscaleは1以上の実数である。これにより、オペレータは、環境モデル内で経過するシミュレーション時間を1/Kscaleの時間で体感することができる。例えば、短縮率Kscale=10の場合、環境モデル内で1台のロボットモデルを100秒間動作させるのに必要なオペレータの拘束時間は、100秒/10=10秒である。換言すれば、1人のオペレータが最大10台のロボットモデルを同時に操作することができる。これにより、1人のオペレータによって複数のロボットを効率的に制御することができる。
The relationship of shortening rate Kscale=Tsim/Treal holds between the real time Treal experienced by the operator and the simulation time Tsim that elapses within the environment model, and the shortening rate Kscale is a real number of 1 or more. This allows the operator to experience the simulation time that passes within the environment model in a time of 1/K scale. For example, when the reduction rate Kscale=10, the operator's restraint time required to operate one robot model within the environment model for 100 seconds is 100 seconds/10=10 seconds. In other words, one operator can operate up to 10 robot models simultaneously. This allows one operator to efficiently control a plurality of robots.
短縮率Kscaleは、ロボットの作業環境、すなわち実環境に存在する外乱要素の発生頻度に基づいて決定されてもよい。例えば、予測観測値と実観測値とが乖離する可能性の比較的高い障害物は、発生頻度の高い外乱要素である。このような発生頻度の高い外乱要素が存在する場合には、短縮率Kscaleを小さく設定することにより、異常が検知されてからリアルタイム制御に移行してオペレータが対処するまでの時間的余裕を長くとることができる。
The reduction rate Kscale may be determined based on the frequency of occurrence of disturbance elements present in the robot's working environment, that is, the actual environment. For example, an obstacle that has a relatively high possibility of causing a deviation between the predicted observed value and the actual observed value is a disturbance element that occurs frequently. If such disturbance elements that occur frequently exist, by setting the reduction rate Kscale small, it is possible to increase the time from when an abnormality is detected to when the control shifts to real-time control and the operator takes action. be able to.
短縮率Kscaleは、ロボットの作業環境、すなわち実環境に存在する外乱要素の空間密度に基づいて決定されてもよい。例えば、比較的多数の障害物が存在する作業環境は、外乱要素の空間密度の高い環境である。このように外乱要素の空間密度が高い場合には、短縮率Kscaleを小さく設定することにより、異常が検知されてからリアルタイム制御に移行してオペレータが対処するまでの時間的余裕を長くとることができる。
The shortening rate Kscale may be determined based on the spatial density of disturbance elements present in the robot's working environment, that is, the actual environment. For example, a work environment in which a relatively large number of obstacles are present is an environment with a high spatial density of disturbance elements. When the spatial density of disturbance elements is high in this way, by setting the shortening rate Kscale small, it is possible to increase the time margin from when an abnormality is detected to when the control shifts to real-time control and the operator takes action. can.
短縮率Kscaleは、ロボットの作業環境、すなわち実環境に存在する外乱要素の対処難易度に基づいて決定されてもよい。例えば、速度変化の比較的激しい障害物は、対処難易度の高い外乱要素である。このような対処難易度の高い外乱要素が存在する場合には、短縮率Kscaleを小さく設定することにより、異常が検知されてからリアルタイム制御に移行してオペレータが対処するまでの時間的余裕を長くとることができる。
The reduction rate Kscale may be determined based on the difficulty of dealing with disturbance elements present in the robot's work environment, that is, the actual environment. For example, an obstacle whose speed changes relatively rapidly is a disturbance element that is difficult to deal with. If such a disturbance element that is difficult to deal with exists, by setting the reduction rate Kscale small, the time margin from when an abnormality is detected until real-time control is started and the operator takes action can be increased. You can take it.
短縮率Kscaleは、ロボットの作業環境、すなわち実環境に存在する外乱要素の発生頻度、空間密度および対処難易度の組み合わせに基づいて決定されてもよい。例えば、図7に示されるように、外乱要素の空間密度と対処難易度の組み合わせに基づく環境複雑度を定義し、当該環境複雑度に基づいて短縮率Kscaleが決定されてもよい。
The reduction rate Kscale may be determined based on a combination of the frequency of occurrence, spatial density, and difficulty of dealing with disturbance elements present in the robot's working environment, that is, the actual environment. For example, as shown in FIG. 7, the environmental complexity may be defined based on a combination of the spatial density of disturbance elements and the difficulty of handling, and the shortening rate Kscale may be determined based on the environmental complexity.
ロボットが個人宅で運用される家庭用ロボット(家庭用モバイルマニュピュレータ)である場合には、短縮率Kscaleは、個人宅の時間の属性に基づいて決定されてもよい。個人宅の時間の属性の具体例としては、親子外出(平日昼間)、子供外出(休日昼間)、親子在宅(夜間)等であり、この順番に従って短縮率Kscaleが小さく設定される。
If the robot is a household robot (home mobile manipulator) operated in a private home, the reduction rate Kscale may be determined based on the time attribute of the private home. Specific examples of attributes of time at a private home include parent and child going out (daytime on weekdays), child going out (daytime on holiday), and parent and child staying home (nighttime), and the reduction rate Kscale is set to be small in accordance with this order.
ロボットが工場または倉庫で運用される台車型のロボット(台車型モバイルマニュピュレータ)である場合には、短縮率Kscaleは、工場または倉庫の種類の属性に基づいて決定されてもよい。工場または倉庫の種類の属性の具体例としては、無人工場、無人倉庫、有人工場、有人倉庫等であり、この順番に従って短縮率Kscaleが小さく設定される。
If the robot is a cart-type robot (cart-type mobile manipulator) operated in a factory or warehouse, the reduction rate Kscale may be determined based on the attribute of the type of factory or warehouse. Specific examples of attributes of the type of factory or warehouse include unmanned factory, unmanned warehouse, manned factory, and manned warehouse, and the reduction rate Kscale is set to be small in this order.
ロボットが小売店舗で運用される店舗用ロボット(店舗用モバイルマニュピュレータ)である場合には、短縮率Kscaleは、小売店舗の時間の属性に基づいて決定されてもよい。小売店舗の時間の属性の具体例としては、営業時間外、営業時間(閑散時間)、営業時間(繁忙時間)等であり、この順番に従って短縮率Kscaleが小さく設定される。
If the robot is a store robot (store mobile manipulator) operated in a retail store, the reduction rate Kscale may be determined based on the time attribute of the retail store. Specific examples of the time attributes of a retail store include non-business hours, business hours (off-season hours), business hours (busy hours), etc., and the reduction rate Kscale is set to be smaller in accordance with this order.
ロボットが道路を走行する自動運転ロボットである場合には、短縮率Kscaleは、ロボットが走行する道路の種類の属性に基づいて決定されてもよい。道路の種類の属性の具体例としては、高速道路、幹線道路、市街地の道路、私道、駐車場等であり、この順番に従って短縮率Kscaleが小さく設定される。
If the robot is a self-driving robot that travels on a road, the reduction rate Kscale may be determined based on the attributes of the type of road that the robot travels on. Specific examples of road type attributes include expressways, arterial roads, city roads, private roads, parking lots, etc., and the reduction rate Kscale is set to be small in this order.
(変形例)
上記の実施の形態1では、2つのシミュレータ12aおよび12bによって2台のロボット20aおよび20bの動作をそれぞれシミュレートしていた。換言すれば、図8に示されるように、シミュレータとロボットとが1対1に対応していた。しかしながら、1つのシミュレータが複数のロボットの動作をシミュレートしてもよい。換言すれば、シミュレータとロボットとが1対Nに対応してもよい。図9の例では、同一の作業環境W1に配置される2台のロボット20aおよび20bの動作を1つのシミュレータ12aによってシミュレートしている。これにより、シミュレーションに要する計算資源を節約することができる。 (Modified example)
In the first embodiment described above, the two simulators 12a and 12b simulate the operations of the two robots 20a and 20b, respectively. In other words, as shown in FIG. 8, there was a one-to-one correspondence between the simulator and the robot. However, one simulator may simulate the movements of multiple robots. In other words, the simulator and the robot may correspond to each other in a 1:N ratio. In the example of FIG. 9, the operations of two robots 20a and 20b placed in the same working environment W1 are simulated by one simulator 12a. This makes it possible to save computational resources required for simulation.
上記の実施の形態1では、2つのシミュレータ12aおよび12bによって2台のロボット20aおよび20bの動作をそれぞれシミュレートしていた。換言すれば、図8に示されるように、シミュレータとロボットとが1対1に対応していた。しかしながら、1つのシミュレータが複数のロボットの動作をシミュレートしてもよい。換言すれば、シミュレータとロボットとが1対Nに対応してもよい。図9の例では、同一の作業環境W1に配置される2台のロボット20aおよび20bの動作を1つのシミュレータ12aによってシミュレートしている。これにより、シミュレーションに要する計算資源を節約することができる。 (Modified example)
In the first embodiment described above, the two
(形式的表現)
短縮率Kscaleの最大値について考察するために、オペレータの反応速度限界を考慮する考え方を形式的に表現する。人間の反応速度には限界があるため、シミュレーション速度の短縮率Kscaleには、オペレータが反応しきれなくなる限界が存在する。 (formal expression)
In order to consider the maximum value of the shortening rate Kscale, we will formally express the idea of considering the operator's reaction speed limit. Since there is a limit to human reaction speed, there is a limit to the simulation speed reduction rate Kscale beyond which the operator cannot fully react.
短縮率Kscaleの最大値について考察するために、オペレータの反応速度限界を考慮する考え方を形式的に表現する。人間の反応速度には限界があるため、シミュレーション速度の短縮率Kscaleには、オペレータが反応しきれなくなる限界が存在する。 (formal expression)
In order to consider the maximum value of the shortening rate Kscale, we will formally express the idea of considering the operator's reaction speed limit. Since there is a limit to human reaction speed, there is a limit to the simulation speed reduction rate Kscale beyond which the operator cannot fully react.
先述したように、短縮率Kscaleは、実環境で現実に経過する実時間Trealと、環境モデル内で経過するシミュレーション時間Tsimとにより、以下のように表現することができる。
As mentioned above, the shortening rate Kscale can be expressed as follows using the real time Treal that actually elapses in the real environment and the simulation time Tsim that elapses within the environment model.
また、ロボットの運用に支障が出ないようにするためには、オペレータが異常を検知・予知してからロボットに対して適切な操作を行うことにより、異常からの復旧または異常の回避が可能である必要がある。これはロボットに対してある対象物(人間・物体)が有意な外乱を与え得る範囲をDthrとして、以下のように表現することができる。
In addition, in order to ensure that the operation of the robot is not hindered, the operator can recover from or avoid the abnormality by detecting and predicting the abnormality and then performing appropriate operations on the robot. There needs to be. This can be expressed as follows, where Dthr is the range in which a certain object (person/object) can cause significant disturbance to the robot.
ただし、上式において、異常を予知した際の時刻T1におけるロボットおよび対象物の位置をそれぞれPfollowerT1およびPobjectT1、その後の時刻tにおけるロボットおよび対象物の位置をPfollower(t)およびPobject(t)、速度をVfollower(Oopt(t),t)およびVobject(t)と表記している。また、Oopt(t)は、オペレータが異常に対処する際の適切な操作内容を示している。
However, in the above equation, the positions of the robot and object at time T1 when the abnormality is predicted are respectively PfollowerT1 and PojectT1, the positions of the robot and object at subsequent time t are Pfollower(t) and Poject(t), and the speed is are expressed as Vfollower(Oopt(t), t) and Voject(t). Moreover, Oopt(t) indicates the appropriate operation content when the operator deals with an abnormality.
実際には、対象物の検知直後から適切な操作が開始できるわけではなく、遅延時間Td後に適切な操作を開始すること、シミュレーション時間と実時間との間には式(1)による差が存在することから、ロボットの運用に支障が出ない範囲で短縮率Kscaleを可能な限り大きくするということは、以下の問題に帰着される.
In reality, it is not possible to start an appropriate operation immediately after detecting the object; instead, the appropriate operation must be started after a delay time Td, and there is a difference between simulation time and real time based on equation (1). Therefore, increasing the shortening rate Kscale as much as possible without interfering with robot operation comes down to the following problem.
(具体例:自動運転ロボット)
オペレータがロボットの速度を操作する自動運転ロボットでは、図10に示されるように、安全領域の広さ(安全領域境界)、オペレータの視野範囲、オペレータの回避操作、オペレータの反応速度等のパラメータが定義される。 (Specific example: self-driving robot)
In a self-driving robot in which the operator controls the speed of the robot, as shown in Figure 10, parameters such as the width of the safety area (safety area boundary), the operator's field of view, the operator's avoidance maneuver, and the operator's reaction speed are controlled. defined.
オペレータがロボットの速度を操作する自動運転ロボットでは、図10に示されるように、安全領域の広さ(安全領域境界)、オペレータの視野範囲、オペレータの回避操作、オペレータの反応速度等のパラメータが定義される。 (Specific example: self-driving robot)
In a self-driving robot in which the operator controls the speed of the robot, as shown in Figure 10, parameters such as the width of the safety area (safety area boundary), the operator's field of view, the operator's avoidance maneuver, and the operator's reaction speed are controlled. defined.
図10のパラメータを用いることにより、上記の式(3)、(4)は、以下のように具体的に書くことができる。
By using the parameters shown in FIG. 10, the above equations (3) and (4) can be specifically written as follows.
図10のパラメータの各値は、道路の種類の属性、例えば、高速道路、幹線道路、市街地の道路等に基づいて、設定することができる。また、対象物は移動台車であり、対向車(対象物)との衝突を異常と仮定する。このとき、オペレータが異常に気づくまでの間は進行方向を変えるような操作をしないとすれば、Omaxは正の定数である。また、対向車が操作対象のロボット(車)の前方にいるとすれば、P‘follower(T,Kscale)<Pobject(T)となり、制約式は以下のように変形することができる。
Each value of the parameters in FIG. 10 can be set based on the attribute of the road type, for example, expressway, main road, city road, etc. Further, it is assumed that the object is a moving truck, and a collision with an oncoming vehicle (object) is abnormal. At this time, if the operator does not perform any operation to change the direction of travel until he notices the abnormality, Omax is a positive constant. Furthermore, if the oncoming vehicle is in front of the robot (car) to be operated, then P'follower (T, Kscale) < Object (T), and the constraint equation can be transformed as follows.
ここで、Oopt(t)の不定積分をSopt(t)として、定積分の形に分解すると以下のようになる。
Here, when the indefinite integral of Oopt(t) is set as Sopt(t), it is decomposed into the form of a definite integral as follows.
ここで、オペレータが最適な操作を行うまでの間は対象物に向かって直進する、すなわち進行方向を変えないような操作を仮定しているため、Sopt(T1+KTd)=Omax(T1+KTd)であり、以下の関係が成立する。
Here, it is assumed that the operator moves straight toward the object, that is, does not change the direction of movement until the operator performs the optimal operation, so Sopt (T1 + KTd) = Omax (T1 + KTd), The following relationship holds true.
この関係を上記の制約式に適用すると、以下のようになる。
Applying this relationship to the above constraint formula results in the following.
特に、T1=0とすると、以下のようになる。
In particular, when T1=0, the following results.
ここで、Dthr=2.0m、Vobject_max=Omax=最大運行速度、Td=0.1秒とすると、G2(T)は以下のようになる。
Here, assuming that Dthr=2.0m, Voject_max=Omax=maximum travel speed, and Td=0.1 seconds, G2(T) is as follows.
時刻TはT1よりも後の時刻であること、T1=0としたことから、その値域はT≧T1=0である。したがって、式(5)よりKの取り得る最大値はG2(0)となる。
Since time T is a time later than T1 and T1=0, the range is T≧T1=0. Therefore, from equation (5), the maximum value that K can take is G2(0).
G2(0)を高速道路、幹線道路、市街地の道路について計算すると、図11に示されるようになる。
When G2(0) is calculated for expressways, arterial roads, and roads in urban areas, it becomes as shown in FIG. 11.
幾つかの実施の形態を説明したが、これらの実施の形態は例として提示したものであり、実施の形態の範囲を限定することは意図していない、これらの実施の形態は、その他の様々な形態で実施されることが可能であり、実施の形態の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施の形態やその変形は、実施の形態の範囲や要旨に含まれると同様に、特許請求の範囲とその均等の範囲に含まれるものである。
Although several embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the embodiments. Various omissions, substitutions, changes, and combinations can be made without departing from the gist of the embodiments. These embodiments and their modifications are included within the scope and gist of the embodiments as well as within the scope of the claims and their equivalents.
なお、本開示に係る技術は、特定の規格に限定されるものではなく、例示された設定は、適宜に変更されてよい。なお、上述の各実施の形態は本開示を具現化するための一例を示したものであり、その他の様々な形態で本開示を実施することが可能である。例えば、本開示の要旨を逸脱しない範囲で、種々の変形、置換、省略、または組み合わせ等が可能である。そのような変形、置換、省略、または組み合わせ等を行った形態も、本開示の範囲に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
Note that the technology according to the present disclosure is not limited to a specific standard, and the illustrated settings may be changed as appropriate. Note that each of the embodiments described above shows an example for embodying the present disclosure, and the present disclosure can be implemented in various other forms. For example, various modifications, substitutions, omissions, combinations, etc. are possible without departing from the gist of the present disclosure. Forms in which such modifications, substitutions, omissions, or combinations are made are also included within the scope of the present disclosure, as well as within the scope of the invention described in the claims and its equivalents.
また、本開示において説明された処理の手順は、これら一連の手順を有する方法として捉えてもよい。あるいは、これら一連の手順をコンピュータに実施させるためのプログラム、または、当該プログラムを記憶する記録媒体として捉えてもよい。また、上記で説明した処理は、コンピュータのCPU等のプロセッサによって実行される。また、記録媒体の種類は、本開示の実施の形態に影響を及ぼすものではないため、特に限定されるものではない。
Furthermore, the processing procedure described in the present disclosure may be regarded as a method having a series of these procedures. Alternatively, it may be regarded as a program for causing a computer to execute these series of procedures, or a recording medium that stores the program. Further, the processing described above is executed by a processor such as a CPU of a computer. Furthermore, the type of recording medium is not particularly limited because it does not affect the embodiments of the present disclosure.
なお、本開示において示された各構成要素は、ソフトウェアで実現されてもよいし、ハードウェアで実現されてもよい。例えば、各構成要素がマイクロプログラムなどのソフトウェアで実現されるソフトウェアモジュールであり、プロセッサが当該ソフトウェアモジュールを実行することにより、各構成要素が実現されてもよい。あるいは、各構成要素が、半導体チップ(ダイ)上の回路ブロック、例えば、ASIC(Application Specific Integrated Circuit)またはFPGA(Field Programmable Gate Array)等の集積回路によって実現されてもよい。また、構成要素の数と構成要素を実現するハードウェアの数とは、一致していなくともよい。例えば、1つのプロセッサまたは回路が複数の構成要素を実現していてもよい。逆に、1つの構成要素が複数のプロセッサまたは回路により実現されていてもよい。
Note that each component shown in the present disclosure may be realized by software or hardware. For example, each component may be a software module implemented by software such as a microprogram, and each component may be implemented by a processor executing the software module. Alternatively, each component may be realized by a circuit block on a semiconductor chip (die), for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). Further, the number of constituent elements and the number of hardware realizing the constituent elements do not need to match. For example, one processor or circuit may implement multiple components. Conversely, one component may be implemented by multiple processors or circuits.
なお、本開示で述べられたプロセッサは、その種類が限られるものではない。例えば、CPU、MPU(Micro Processing Unit)、またはGPU(Graphics Processing Unit)等であってもよい。
Note that the types of processors described in this disclosure are not limited. For example, it may be a CPU, an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), or the like.
なお、本開示は以下のような構成を取ることもできる。
[1](複数のロボットの制御方法)
オペレータから複数のロボットへの動作命令を受信するステップ(S11)と、
前記複数のロボットに対応する複数のロボットモデルおよび環境モデルを用いて、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルの動作を実時間よりも高速に動作させ、結果として得られる予測観測値を取得するステップ(S12)と、
前記予測観測値を前記オペレータに向けて表示するステップ(S13)と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積するステップ(S14)と、
蓄積された前記タスク情報を前記複数のロボットに送信するステップ(S16)と
を含む、複数のロボットの制御方法。
[2]
前記タスク情報を受信するステップ(S21)と、
受信された前記タスク情報を蓄積するステップ(S22)と、
蓄積された前記タスク情報に含まれる前記動作命令に従って、前記複数のロボットを実環境で動作させるステップ(S23)と
をさらに含む、[1]に記載の複数のロボットの制御方法。
[3]
前記複数のロボットを前記実環境で動作させた結果として得られる実観測値を取得するステップ(S24)と、
前記予測観測値と前記実観測値との比較に基づいて、異常を検知するステップ(S25)と
をさらに含む、[2]に記載の複数のロボットの制御方法。
[4]
前記異常が検知された場合に、該異常が検知されたロボットの制御を前記オペレータによるリアルタイム制御に移行させるステップをさらに含む、[3]に記載の複数のロボットの制御方法。
[5]
前記オペレータが体感する前記実時間Trealと、前記環境モデル内で経過するシミュレーション時間Tsimとの間には、
短縮率Kscale=Tsim/Treal
の関係が成立し、前記短縮率Kscaleは1以上の実数である、[1]~[4]のいずれか一項に記載の複数のロボットの制御方法。
[6]
前記短縮率は、前記実環境に存在する外乱要素の発生頻度、空間密度および対処難易度のうちの少なくとも1つに基づいて決定される、[5]に記載の複数のロボットの制御方法。
[7]
前記ロボットは個人宅で運用される家庭用ロボットであり、前記短縮率は前記個人宅の時間の属性に基づいて決定される、[5]に記載の複数のロボットの制御方法。
[8]
前記ロボットは工場または倉庫で運用される台車型ロボットであり、前記短縮率は前記工場または倉庫の種類の属性に基づいて決定される、[5]に記載の複数のロボットの制御方法。
[9]
前記ロボットは店舗で運用される店舗用ロボットであり、前記短縮率は前記店舗の時間の属性に基づいて決定される、[5]に記載の複数のロボットの制御方法。
[10]
前記ロボットは道路を走行する自動運転ロボットであり、前記短縮率は前記道路の種類の属性に基づいて決定される、[10]に記載の複数のロボットの制御方法。
[11](複数のロボットの制御装置)
オペレータ(1)から複数のロボット(20a、20b)への動作命令を受信する入力部(11)と、
前記複数のロボットに対応する複数のロボットモデル(121a、121b)および環境モデル(122a、122b)を含み、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルを実時間よりも高速に動作させ、結果として得られる予測観測値を出力するシミュレーション部(12)と、
前記予測観測値を前記オペレータに向けて表示する表示部(13)と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積する蓄積部(14a、14b)と、
前記蓄積部に蓄積されている前記タスク情報を、前記複数のロボットに送信する送信部(15)と
を備える、複数のロボットの制御装置。
[12]
前記シミュレーション部は、複数のシミュレータ(12a、12b)を含み、
前記複数のシミュレータのそれぞれは、前記複数のロボットモデルのうちの1つまたは複数の動作をシミュレートする、[11]に記載の複数のロボットの制御装置。
[13](複数のロボットの制御システム)
前記複数のロボット(20a、20b)と、該複数のロボットの制御装置(10)とを含み、
前記制御装置は、
オペレータ(1)から前記複数のロボットへの動作命令を受信する入力部(11)と、
前記複数のロボットに対応する複数のロボットモデル(121a、121b)および環境モデル(122a、122b)を含み、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルの動作を実時間よりも高速にシミュレートし、結果として得られる予測観測値を出力するシミュレーション部(12)と、
前記予測観測値を前記オペレータに向けて表示する表示部(13)と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積する第1の蓄積部(14a、14b)と、
前記第1の蓄積部に蓄積されている前記タスク情報を、前記複数のロボットに送信する送信部(15)と
を備え、
前記複数のロボットのそれぞれは、
前記制御装置から前記タスク情報を受信する受信部(21a、21b)と、
前記受信部によって受信された前記タスク情報を蓄積する第2の蓄積部(22a、22b)と、
前記第2の蓄積部に蓄積されている前記タスク情報に含まれる前記動作命令に従って、自機を実環境で動作させる制御部(23a、23b)と
を備える、
複数のロボットの制御システム。 Note that the present disclosure can also have the following configuration.
[1] (How to control multiple robots)
a step (S11) of receiving operation commands from an operator to a plurality of robots;
A plurality of robot models and an environment model corresponding to the plurality of robots are used to operate the plurality of robot models within the environment model at a higher speed than in real time based on the movement command, and the resulting result is obtained. a step (S12) of obtaining predicted observed values;
a step (S13) of displaying the predicted observed value to the operator;
accumulating task information including the operation command and the predicted observation value (S14);
A method for controlling a plurality of robots, including a step (S16) of transmitting the accumulated task information to the plurality of robots.
[2]
a step of receiving the task information (S21);
accumulating the received task information (S22);
The method for controlling a plurality of robots according to [1], further comprising a step (S23) of causing the plurality of robots to operate in a real environment according to the operation instructions included in the accumulated task information.
[3]
acquiring actual observed values obtained as a result of operating the plurality of robots in the actual environment (S24);
The method for controlling a plurality of robots according to [2], further comprising a step (S25) of detecting an abnormality based on a comparison between the predicted observed value and the actual observed value.
[4]
The method for controlling a plurality of robots according to [3], further comprising, when the abnormality is detected, shifting control of the robot in which the abnormality has been detected to real-time control by the operator.
[5]
Between the real time Real experienced by the operator and the simulation time Tsim that passes within the environment model,
Shortening rate Kscale=Tsim/Treal
The method for controlling a plurality of robots according to any one of [1] to [4], wherein the following relationship holds true and the reduction rate Kscale is a real number of 1 or more.
[6]
The method for controlling a plurality of robots according to [5], wherein the shortening rate is determined based on at least one of the frequency of occurrence, spatial density, and difficulty of dealing with disturbance elements existing in the actual environment.
[7]
The method for controlling a plurality of robots according to [5], wherein the robot is a domestic robot operated in a private home, and the reduction rate is determined based on a time attribute of the private home.
[8]
The method for controlling a plurality of robots according to [5], wherein the robot is a cart type robot operated in a factory or warehouse, and the reduction rate is determined based on attributes of the type of the factory or warehouse.
[9]
The method for controlling a plurality of robots according to [5], wherein the robot is a store robot operated in a store, and the reduction rate is determined based on a time attribute of the store.
[10]
The method for controlling a plurality of robots according to [10], wherein the robot is a self-driving robot that runs on a road, and the reduction rate is determined based on attributes of the type of road.
[11] (Control device for multiple robots)
an input unit (11) that receives operation commands from the operator (1) to the plurality of robots (20a, 20b);
The robot models include a plurality of robot models (121a, 121b) and an environment model (122a, 122b) corresponding to the plurality of robots, and the plurality of robot models are moved within the environment model at a speed faster than in real time based on the operation instruction. a simulation unit (12) that operates to output predicted observed values obtained as a result;
a display unit (13) that displays the predicted observed value to the operator;
a storage unit (14a, 14b) that stores task information including the operation command and the predicted observation value;
A control device for a plurality of robots, comprising a transmitting section (15) that transmits the task information stored in the storage section to the plurality of robots.
[12]
The simulation unit includes a plurality of simulators (12a, 12b),
The control device for a plurality of robots according to [11], wherein each of the plurality of simulators simulates the operation of one or more of the plurality of robot models.
[13] (Control system for multiple robots)
including the plurality of robots (20a, 20b) and a control device (10) for the plurality of robots,
The control device includes:
an input unit (11) that receives operation commands from an operator (1) to the plurality of robots;
The robot model includes a plurality of robot models (121a, 121b) and an environment model (122a, 122b) corresponding to the plurality of robots, and the operation of the plurality of robot models is performed in real time within the environment model based on the movement command. a simulation unit (12) for simulating at high speed and outputting the predicted observed values obtained as a result;
a display unit (13) that displays the predicted observed value to the operator;
a first storage unit (14a, 14b) that stores task information including the operation command and the predicted observation value;
a transmitting unit (15) configured to transmit the task information stored in the first storage unit to the plurality of robots;
Each of the plurality of robots is
a receiving unit (21a, 21b) that receives the task information from the control device;
a second storage unit (22a, 22b) that stores the task information received by the reception unit;
a control unit (23a, 23b) for operating the machine in a real environment according to the operation command included in the task information stored in the second storage unit;
Control system for multiple robots.
[1](複数のロボットの制御方法)
オペレータから複数のロボットへの動作命令を受信するステップ(S11)と、
前記複数のロボットに対応する複数のロボットモデルおよび環境モデルを用いて、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルの動作を実時間よりも高速に動作させ、結果として得られる予測観測値を取得するステップ(S12)と、
前記予測観測値を前記オペレータに向けて表示するステップ(S13)と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積するステップ(S14)と、
蓄積された前記タスク情報を前記複数のロボットに送信するステップ(S16)と
を含む、複数のロボットの制御方法。
[2]
前記タスク情報を受信するステップ(S21)と、
受信された前記タスク情報を蓄積するステップ(S22)と、
蓄積された前記タスク情報に含まれる前記動作命令に従って、前記複数のロボットを実環境で動作させるステップ(S23)と
をさらに含む、[1]に記載の複数のロボットの制御方法。
[3]
前記複数のロボットを前記実環境で動作させた結果として得られる実観測値を取得するステップ(S24)と、
前記予測観測値と前記実観測値との比較に基づいて、異常を検知するステップ(S25)と
をさらに含む、[2]に記載の複数のロボットの制御方法。
[4]
前記異常が検知された場合に、該異常が検知されたロボットの制御を前記オペレータによるリアルタイム制御に移行させるステップをさらに含む、[3]に記載の複数のロボットの制御方法。
[5]
前記オペレータが体感する前記実時間Trealと、前記環境モデル内で経過するシミュレーション時間Tsimとの間には、
短縮率Kscale=Tsim/Treal
の関係が成立し、前記短縮率Kscaleは1以上の実数である、[1]~[4]のいずれか一項に記載の複数のロボットの制御方法。
[6]
前記短縮率は、前記実環境に存在する外乱要素の発生頻度、空間密度および対処難易度のうちの少なくとも1つに基づいて決定される、[5]に記載の複数のロボットの制御方法。
[7]
前記ロボットは個人宅で運用される家庭用ロボットであり、前記短縮率は前記個人宅の時間の属性に基づいて決定される、[5]に記載の複数のロボットの制御方法。
[8]
前記ロボットは工場または倉庫で運用される台車型ロボットであり、前記短縮率は前記工場または倉庫の種類の属性に基づいて決定される、[5]に記載の複数のロボットの制御方法。
[9]
前記ロボットは店舗で運用される店舗用ロボットであり、前記短縮率は前記店舗の時間の属性に基づいて決定される、[5]に記載の複数のロボットの制御方法。
[10]
前記ロボットは道路を走行する自動運転ロボットであり、前記短縮率は前記道路の種類の属性に基づいて決定される、[10]に記載の複数のロボットの制御方法。
[11](複数のロボットの制御装置)
オペレータ(1)から複数のロボット(20a、20b)への動作命令を受信する入力部(11)と、
前記複数のロボットに対応する複数のロボットモデル(121a、121b)および環境モデル(122a、122b)を含み、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルを実時間よりも高速に動作させ、結果として得られる予測観測値を出力するシミュレーション部(12)と、
前記予測観測値を前記オペレータに向けて表示する表示部(13)と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積する蓄積部(14a、14b)と、
前記蓄積部に蓄積されている前記タスク情報を、前記複数のロボットに送信する送信部(15)と
を備える、複数のロボットの制御装置。
[12]
前記シミュレーション部は、複数のシミュレータ(12a、12b)を含み、
前記複数のシミュレータのそれぞれは、前記複数のロボットモデルのうちの1つまたは複数の動作をシミュレートする、[11]に記載の複数のロボットの制御装置。
[13](複数のロボットの制御システム)
前記複数のロボット(20a、20b)と、該複数のロボットの制御装置(10)とを含み、
前記制御装置は、
オペレータ(1)から前記複数のロボットへの動作命令を受信する入力部(11)と、
前記複数のロボットに対応する複数のロボットモデル(121a、121b)および環境モデル(122a、122b)を含み、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルの動作を実時間よりも高速にシミュレートし、結果として得られる予測観測値を出力するシミュレーション部(12)と、
前記予測観測値を前記オペレータに向けて表示する表示部(13)と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積する第1の蓄積部(14a、14b)と、
前記第1の蓄積部に蓄積されている前記タスク情報を、前記複数のロボットに送信する送信部(15)と
を備え、
前記複数のロボットのそれぞれは、
前記制御装置から前記タスク情報を受信する受信部(21a、21b)と、
前記受信部によって受信された前記タスク情報を蓄積する第2の蓄積部(22a、22b)と、
前記第2の蓄積部に蓄積されている前記タスク情報に含まれる前記動作命令に従って、自機を実環境で動作させる制御部(23a、23b)と
を備える、
複数のロボットの制御システム。 Note that the present disclosure can also have the following configuration.
[1] (How to control multiple robots)
a step (S11) of receiving operation commands from an operator to a plurality of robots;
A plurality of robot models and an environment model corresponding to the plurality of robots are used to operate the plurality of robot models within the environment model at a higher speed than in real time based on the movement command, and the resulting result is obtained. a step (S12) of obtaining predicted observed values;
a step (S13) of displaying the predicted observed value to the operator;
accumulating task information including the operation command and the predicted observation value (S14);
A method for controlling a plurality of robots, including a step (S16) of transmitting the accumulated task information to the plurality of robots.
[2]
a step of receiving the task information (S21);
accumulating the received task information (S22);
The method for controlling a plurality of robots according to [1], further comprising a step (S23) of causing the plurality of robots to operate in a real environment according to the operation instructions included in the accumulated task information.
[3]
acquiring actual observed values obtained as a result of operating the plurality of robots in the actual environment (S24);
The method for controlling a plurality of robots according to [2], further comprising a step (S25) of detecting an abnormality based on a comparison between the predicted observed value and the actual observed value.
[4]
The method for controlling a plurality of robots according to [3], further comprising, when the abnormality is detected, shifting control of the robot in which the abnormality has been detected to real-time control by the operator.
[5]
Between the real time Real experienced by the operator and the simulation time Tsim that passes within the environment model,
Shortening rate Kscale=Tsim/Treal
The method for controlling a plurality of robots according to any one of [1] to [4], wherein the following relationship holds true and the reduction rate Kscale is a real number of 1 or more.
[6]
The method for controlling a plurality of robots according to [5], wherein the shortening rate is determined based on at least one of the frequency of occurrence, spatial density, and difficulty of dealing with disturbance elements existing in the actual environment.
[7]
The method for controlling a plurality of robots according to [5], wherein the robot is a domestic robot operated in a private home, and the reduction rate is determined based on a time attribute of the private home.
[8]
The method for controlling a plurality of robots according to [5], wherein the robot is a cart type robot operated in a factory or warehouse, and the reduction rate is determined based on attributes of the type of the factory or warehouse.
[9]
The method for controlling a plurality of robots according to [5], wherein the robot is a store robot operated in a store, and the reduction rate is determined based on a time attribute of the store.
[10]
The method for controlling a plurality of robots according to [10], wherein the robot is a self-driving robot that runs on a road, and the reduction rate is determined based on attributes of the type of road.
[11] (Control device for multiple robots)
an input unit (11) that receives operation commands from the operator (1) to the plurality of robots (20a, 20b);
The robot models include a plurality of robot models (121a, 121b) and an environment model (122a, 122b) corresponding to the plurality of robots, and the plurality of robot models are moved within the environment model at a speed faster than in real time based on the operation instruction. a simulation unit (12) that operates to output predicted observed values obtained as a result;
a display unit (13) that displays the predicted observed value to the operator;
a storage unit (14a, 14b) that stores task information including the operation command and the predicted observation value;
A control device for a plurality of robots, comprising a transmitting section (15) that transmits the task information stored in the storage section to the plurality of robots.
[12]
The simulation unit includes a plurality of simulators (12a, 12b),
The control device for a plurality of robots according to [11], wherein each of the plurality of simulators simulates the operation of one or more of the plurality of robot models.
[13] (Control system for multiple robots)
including the plurality of robots (20a, 20b) and a control device (10) for the plurality of robots,
The control device includes:
an input unit (11) that receives operation commands from an operator (1) to the plurality of robots;
The robot model includes a plurality of robot models (121a, 121b) and an environment model (122a, 122b) corresponding to the plurality of robots, and the operation of the plurality of robot models is performed in real time within the environment model based on the movement command. a simulation unit (12) for simulating at high speed and outputting the predicted observed values obtained as a result;
a display unit (13) that displays the predicted observed value to the operator;
a first storage unit (14a, 14b) that stores task information including the operation command and the predicted observation value;
a transmitting unit (15) configured to transmit the task information stored in the first storage unit to the plurality of robots;
Each of the plurality of robots is
a receiving unit (21a, 21b) that receives the task information from the control device;
a second storage unit (22a, 22b) that stores the task information received by the reception unit;
a control unit (23a, 23b) for operating the machine in a real environment according to the operation command included in the task information stored in the second storage unit;
Control system for multiple robots.
1 オペレータ
10 制御装置
11 入力部
12 シミュレーション部
12a シミュレータ
12b シミュレータ
12c シミュレータ
12d シミュレータ
13 表示部
14a 蓄積部
14b 蓄積部
15 送信部
16 受信部
20a ロボット
20b ロボット
20c ロボット
20d ロボット
21a 受信部
21b 受信部
22a 蓄積部
22b 蓄積部
23a 制御部
23b 制御部
24a 走行モーター
24b 走行モーター
25a 内界センサー
25b 内界センサー
26a 外界センサー
26b 外界センサー
27a 異常検知部
27b 異常検知部
100 制御システム
121a ロボットモデル
121b ロボットモデル
122a 環境モデル
122b 環境モデル
B 操作拠点
W1 作業環境
W2 作業環境
W3 作業環境 1Operator 10 Control device 11 Input section 12 Simulation section 12a Simulator 12b Simulator 12c Simulator 12d Simulator 13 Display section 14a Accumulation section 14b Accumulation section 15 Transmission section 16 Receiving section 20a Robot 20b Robot 20c Robot 20d Robot 21a Receiving section 21b Receiving section 22a Accumulation Part 22b Accumulation part 23a Control part 23b Control part 24a Travel motor 24b Travel motor 25a Internal world sensor 25b Internal world sensor 26a Outside world sensor 26b Outside world sensor 27a Abnormality detection part 27b Abnormality detection part 100 Control system 121a Robot model 121b Robot model 122a Environment model 122b Environment model B Operation base W1 Work environment W2 Work environment W3 Work environment
10 制御装置
11 入力部
12 シミュレーション部
12a シミュレータ
12b シミュレータ
12c シミュレータ
12d シミュレータ
13 表示部
14a 蓄積部
14b 蓄積部
15 送信部
16 受信部
20a ロボット
20b ロボット
20c ロボット
20d ロボット
21a 受信部
21b 受信部
22a 蓄積部
22b 蓄積部
23a 制御部
23b 制御部
24a 走行モーター
24b 走行モーター
25a 内界センサー
25b 内界センサー
26a 外界センサー
26b 外界センサー
27a 異常検知部
27b 異常検知部
100 制御システム
121a ロボットモデル
121b ロボットモデル
122a 環境モデル
122b 環境モデル
B 操作拠点
W1 作業環境
W2 作業環境
W3 作業環境 1
Claims (13)
- オペレータから複数のロボットへの動作命令を受信するステップと、
前記複数のロボットに対応する複数のロボットモデルおよび環境モデルを用いて、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルの動作を実時間よりも高速に動作させ、結果として得られる予測観測値を取得するステップと、
前記予測観測値を前記オペレータに向けて表示するステップと、
前記動作命令および前記予測観測値を含むタスク情報を蓄積するステップと、
蓄積された前記タスク情報を前記複数のロボットに送信するステップと
を含む、複数のロボットの制御方法。 receiving operation instructions from an operator to the plurality of robots;
A plurality of robot models and an environment model corresponding to the plurality of robots are used to operate the plurality of robot models within the environment model at a higher speed than in real time based on the movement command, and the resulting result is obtained. obtaining predicted observed values for
displaying the predicted observed value to the operator;
accumulating task information including the action instructions and the predicted observed values;
A method for controlling a plurality of robots, the method comprising: transmitting the accumulated task information to the plurality of robots. - 前記タスク情報を受信するステップと、
受信された前記タスク情報を蓄積するステップと、
蓄積された前記タスク情報に含まれる前記動作命令に従って、前記複数のロボットを実環境で動作させるステップと
をさらに含む、請求項1に記載の複数のロボットの制御方法。 receiving the task information;
accumulating the received task information;
2. The method of controlling a plurality of robots according to claim 1, further comprising the step of causing the plurality of robots to operate in a real environment according to the operation instructions included in the accumulated task information. - 前記複数のロボットを前記実環境で動作させた結果として得られる実観測値を取得するステップと、
前記予測観測値と前記実観測値との比較に基づいて、異常を検知するステップと
をさらに含む、請求項2に記載の複数のロボットの制御方法。 acquiring actual observed values obtained as a result of operating the plurality of robots in the actual environment;
3. The method of controlling a plurality of robots according to claim 2, further comprising the step of detecting an abnormality based on a comparison between the predicted observed value and the actual observed value. - 前記異常が検知された場合に、該異常が検知されたロボットの制御を前記オペレータによるリアルタイム制御に移行させるステップをさらに含む、請求項3に記載の複数のロボットの制御方法。 4. The method for controlling a plurality of robots according to claim 3, further comprising, when the abnormality is detected, shifting control of the robot in which the abnormality has been detected to real-time control by the operator.
- 前記オペレータが体感する前記実時間Trealと、前記環境モデル内で経過するシミュレーション時間Tsimとの間には、
短縮率Kscale=Tsim/Treal
の関係が成立し、前記短縮率Kscaleは1以上の実数である、請求項1に記載の複数のロボットの制御方法。 Between the real time Real experienced by the operator and the simulation time Tsim that passes within the environment model,
Shortening rate Kscale=Tsim/Treal
2. The method of controlling a plurality of robots according to claim 1, wherein the following relationship holds true and the reduction rate Kscale is a real number of 1 or more. - 前記短縮率は、実環境に存在する外乱要素の発生頻度、空間密度および対処難易度のうちの少なくとも1つに基づいて決定される、請求項5に記載の複数のロボットの制御方法。 6. The method for controlling a plurality of robots according to claim 5, wherein the shortening rate is determined based on at least one of the frequency of occurrence, spatial density, and difficulty of dealing with disturbance elements existing in the actual environment.
- 前記ロボットは個人宅で運用される家庭用ロボットであり、前記短縮率は前記個人宅の時間の属性に基づいて決定される、請求項5に記載の複数のロボットの制御方法。 6. The method of controlling a plurality of robots according to claim 5, wherein the robot is a domestic robot operated in a private home, and the reduction rate is determined based on a time attribute of the private home.
- 前記ロボットは工場または倉庫で運用される台車型ロボットであり、前記短縮率は前記工場または倉庫の種類の属性に基づいて決定される、請求項5に記載の複数のロボットの制御方法。 6. The method of controlling a plurality of robots according to claim 5, wherein the robot is a cart type robot operated in a factory or warehouse, and the reduction rate is determined based on attributes of the type of the factory or warehouse.
- 前記ロボットは店舗で運用される店舗用ロボットであり、前記短縮率は前記店舗の時間の属性に基づいて決定される、請求項5に記載の複数のロボットの制御方法。 The method of controlling a plurality of robots according to claim 5, wherein the robot is a store robot operated in a store, and the reduction rate is determined based on a time attribute of the store.
- 前記ロボットは道路を走行する自動運転ロボットであり、前記短縮率は前記道路の種類の属性に基づいて決定される、請求項5に記載の複数のロボットの制御方法。 6. The method of controlling a plurality of robots according to claim 5, wherein the robot is a self-driving robot that travels on a road, and the reduction rate is determined based on attributes of the type of road.
- オペレータから複数のロボットへの動作命令を受信する入力部と、
前記複数のロボットに対応する複数のロボットモデルおよび環境モデルを含み、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルを実時間よりも高速に動作させ、結果として得られる予測観測値を出力するシミュレーション部と、
前記予測観測値を前記オペレータに向けて表示する表示部と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積する蓄積部と、
前記蓄積部に蓄積されている前記タスク情報を、前記複数のロボットに送信する送信部と
を備える、複数のロボットの制御装置。 an input unit that receives operation commands from an operator to the plurality of robots;
comprising a plurality of robot models and an environment model corresponding to the plurality of robots, the plurality of robot models are operated within the environment model at a higher speed than in real time based on the movement instruction, and predictive observation obtained as a result; a simulation section that outputs values;
a display unit that displays the predicted observed value toward the operator;
an accumulation unit that accumulates task information including the operation command and the predicted observation value;
A control device for a plurality of robots, comprising: a transmitting section that transmits the task information stored in the storage section to the plurality of robots. - 前記シミュレーション部は、複数のシミュレータを含み、
前記複数のシミュレータのそれぞれは、前記複数のロボットモデルのうちの1つまたは複数の動作をシミュレートする、請求項11に記載の複数のロボットの制御装置。 The simulation unit includes a plurality of simulators,
12. The control device for a plurality of robots according to claim 11, wherein each of the plurality of simulators simulates an operation of one or more of the plurality of robot models. - 前記複数のロボットと、該複数のロボットの制御装置とを含み、
前記制御装置は、
オペレータから前記複数のロボットへの動作命令を受信する入力部と、
前記複数のロボットに対応する複数のロボットモデルおよび環境モデルを含み、前記動作命令に基づいて、前記環境モデル内で前記複数のロボットモデルの動作を実時間よりも高速にシミュレートし、結果として得られる予測観測値を出力するシミュレーション部と、
前記予測観測値を前記オペレータに向けて表示する表示部と、
前記動作命令および前記予測観測値を含むタスク情報を蓄積する第1の蓄積部と、
前記第1の蓄積部に蓄積されている前記タスク情報を、前記複数のロボットに送信する送信部と
を備え、
前記複数のロボットのそれぞれは、
前記制御装置から前記タスク情報を受信する受信部と、
前記受信部によって受信された前記タスク情報を蓄積する第2の蓄積部と、
前記第2の蓄積部に蓄積されている前記タスク情報に含まれる前記動作命令に従って、自機を実環境で動作させる制御部と
を備える、
複数のロボットの制御システム。 including the plurality of robots and a control device for the plurality of robots,
The control device includes:
an input unit that receives operation commands from an operator to the plurality of robots;
The method includes a plurality of robot models and an environment model corresponding to the plurality of robots, and simulates the motions of the plurality of robot models in the environment model at a higher speed than in real time based on the motion instructions, and obtains a resultant result. a simulation unit that outputs predicted observed values;
a display unit that displays the predicted observed value toward the operator;
a first storage unit that stores task information including the operation command and the predicted observation value;
a transmitting unit that transmits the task information stored in the first storage unit to the plurality of robots,
Each of the plurality of robots is
a receiving unit that receives the task information from the control device;
a second storage unit that stores the task information received by the reception unit;
a control unit that operates the machine in a real environment according to the operation command included in the task information stored in the second storage unit;
Control system for multiple robots.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022117370 | 2022-07-22 | ||
JP2022-117370 | 2022-07-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024019107A1 true WO2024019107A1 (en) | 2024-01-25 |
Family
ID=89617873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/026552 WO2024019107A1 (en) | 2022-07-22 | 2023-07-20 | Multiple-robot control method, multiple-robot control device, and multiple-robot control system |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024019107A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009166180A (en) * | 2008-01-17 | 2009-07-30 | Hitachi-Ge Nuclear Energy Ltd | Robot system |
WO2010017835A1 (en) * | 2008-08-12 | 2010-02-18 | Abb Technology Ab | A system and a method for off-line programming of an industrial robot |
JP2011511718A (en) * | 2008-02-13 | 2011-04-14 | シーグリッド コーポレーション | Distributed multi-robot system |
WO2019064917A1 (en) * | 2017-09-26 | 2019-04-04 | 日本電産株式会社 | Robot simulator |
US10335962B1 (en) * | 2017-03-01 | 2019-07-02 | Knowledge Initiatives LLC | Comprehensive fault detection and diagnosis of robots |
JP2020157442A (en) * | 2019-03-27 | 2020-10-01 | 株式会社国際電気通信基礎技術研究所 | Simulation system |
CN111367282B (en) * | 2020-03-09 | 2022-06-07 | 山东大学 | Robot navigation method and system based on multimode perception and reinforcement learning |
-
2023
- 2023-07-20 WO PCT/JP2023/026552 patent/WO2024019107A1/en unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009166180A (en) * | 2008-01-17 | 2009-07-30 | Hitachi-Ge Nuclear Energy Ltd | Robot system |
JP2011511718A (en) * | 2008-02-13 | 2011-04-14 | シーグリッド コーポレーション | Distributed multi-robot system |
WO2010017835A1 (en) * | 2008-08-12 | 2010-02-18 | Abb Technology Ab | A system and a method for off-line programming of an industrial robot |
US10335962B1 (en) * | 2017-03-01 | 2019-07-02 | Knowledge Initiatives LLC | Comprehensive fault detection and diagnosis of robots |
WO2019064917A1 (en) * | 2017-09-26 | 2019-04-04 | 日本電産株式会社 | Robot simulator |
JP2020157442A (en) * | 2019-03-27 | 2020-10-01 | 株式会社国際電気通信基礎技術研究所 | Simulation system |
CN111367282B (en) * | 2020-03-09 | 2022-06-07 | 山东大学 | Robot navigation method and system based on multimode perception and reinforcement learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12054176B2 (en) | Trajectory generation and execution architecture | |
US11740626B2 (en) | Redundant pose generation system | |
AU2019253703B2 (en) | Improving the safety of reinforcement learning models | |
US11402839B2 (en) | Action planning system and method for autonomous vehicles | |
JP2020170535A (en) | Environment navigation using reinforcement learning | |
WO2019199878A1 (en) | Analysis of scenarios for controlling vehicle operations | |
KR20210074366A (en) | Autonomous vehicle planning and forecasting | |
CN111830977B (en) | Autonomous navigation software framework of mobile robot and navigation method | |
US11891087B2 (en) | Systems and methods for generating behavioral predictions in reaction to autonomous vehicle movement | |
CN111833597A (en) | Autonomous decision making in traffic situations with planning control | |
Sezer | Intelligent decision making for overtaking maneuver using mixed observable Markov decision process | |
Janiak et al. | Control system architecture for the investigation of motion control algorithms on an example of the mobile platform Rex | |
Gu et al. | Towards a two-layer framework for verifying autonomous vehicles | |
US11972184B2 (en) | Method and system for designing a robotic system architecture with optimized system latency | |
Bulsara et al. | Obstacle avoidance using model predictive control: An implementation and validation study using scaled vehicles | |
US20210394788A1 (en) | Method and apparatus for detecting unexpected control state in autonomous driving system | |
US11106184B2 (en) | Control system | |
WO2024019107A1 (en) | Multiple-robot control method, multiple-robot control device, and multiple-robot control system | |
JP6383716B2 (en) | Control device and control method for drone | |
Kamtam et al. | Network Latency in Teleoperation of Connected and Autonomous Vehicles: A Review of Trends, Challenges, and Mitigation Strategies | |
CN112975989B (en) | Robot safe operation method, equipment and storage medium | |
Ruiz et al. | Implementation of a sensor fusion based robotic system architecture for motion control using human-robot interaction | |
WO2022271535A1 (en) | Safety trajectories for robotic control systems | |
Figetakis et al. | Decentralized semantic traffic control in avs using rl and dqn for dynamic roadblocks | |
Bejarano et al. | Towards enhanced live visualization based on communication delay prediction for remote AGV operation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23843030 Country of ref document: EP Kind code of ref document: A1 |