WO2020240977A1 - 安全監視システム、安全監視制御装置、および安全監視方法 - Google Patents

安全監視システム、安全監視制御装置、および安全監視方法 Download PDF

Info

Publication number
WO2020240977A1
WO2020240977A1 PCT/JP2020/009967 JP2020009967W WO2020240977A1 WO 2020240977 A1 WO2020240977 A1 WO 2020240977A1 JP 2020009967 W JP2020009967 W JP 2020009967W WO 2020240977 A1 WO2020240977 A1 WO 2020240977A1
Authority
WO
WIPO (PCT)
Prior art keywords
mode
robot
sensor
area
safety monitoring
Prior art date
Application number
PCT/JP2020/009967
Other languages
English (en)
French (fr)
Inventor
霄光 寧
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to EP20815490.6A priority Critical patent/EP3978210A4/en
Priority to US17/605,003 priority patent/US20220203538A1/en
Publication of WO2020240977A1 publication Critical patent/WO2020240977A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/144Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using light grids
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/147Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using electro-magnetic technology, e.g. tags or radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator

Definitions

  • the present invention relates to a safety monitoring system or the like that controls a device by grasping the movement of a person in an environment in which a device such as a robot and a person such as a worker coexist.
  • Patent Document 1 discloses a control method for a robot device that decelerates or stops the operation of a robot when an intrusion of an operator is detected in a predetermined warning area wider than the movable area of the robot. ing.
  • Patent Document 1 constantly monitors the movements of the robot and the operator in the peripheral area of the robot to be monitored by one sensor.
  • a sensor that monitors the peripheral area of the robot, it is not possible to grasp the movement of a person at the entire factory site including the area around the robot. Therefore, for example, when the worker runs toward the robot from outside the area around the robot, the moving speed of the worker cannot be grasped, so that the dangerous area where the robot and the worker may come into contact with each other is created.
  • One aspect of the present invention has been made in view of the above-mentioned problems, and at a production site where a device such as a robot and a human coexist, the movement of the human is more reliably grasped and the safety of the human is ensured.
  • the safety monitoring system includes a second sensor that monitors a second area including a dangerous area set around the robot as a part, and the second sensor.
  • a first sensor that monitors a first region including a part of the region, a first processing unit that recognizes an image acquired by the first sensor and detects a person's approach to the second region, and the first processing unit.
  • the second processing unit that recognizes the image acquired by the two sensors and detects the intrusion of a person into the dangerous area, and the mode determination unit are provided.
  • the mode determination unit determines that the first mode does not detect the approach of a person to the second region as the first mode, and that the first processing unit detects the approach of the person to the second region as the second mode.
  • the operation of the unit differs between the first mode and the second mode.
  • the safety monitoring control device in one aspect of the present disclosure recognizes the image acquired by the first sensor that monitors the first region, including the second region around the robot as a part.
  • the robot which is a part of the second region, recognizes the images acquired by the first processing unit that detects the approach of a person to the second region and the second sensor that monitors the second region.
  • the mode determination unit includes a second processing unit that detects the intrusion of a person into a dangerous area set around the user, and a mode determination unit, in which the first processing unit causes the person to enter the second area. The time when the approach is not detected is determined as the first mode, and the time when the approach is detected is determined as the second mode, and the operation of the second processing unit differs between the first mode and the second mode.
  • the safety monitoring method in one aspect of the present disclosure recognizes an image acquired by a first sensor that monitors the first region, including a second region around the robot as a part.
  • the first processing step of detecting the approach of a person to the second area and the image acquired by the second sensor that monitors the second area are recognized, and the person to the danger area set around the robot.
  • the second processing step for detecting the intrusion of the robot and the first processing step do not detect the approach of the person to the second region is determined as the first mode, and when the first processing step detects the intrusion, the second mode is determined.
  • the second processing step, including the mode determination step is stopped in the first mode and executed in the second mode.
  • the movement of the person can be grasped more reliably, the safety of the person can be ensured, and the restriction on the operation of the device can be suppressed. Can be done.
  • FIG. 2 is a diagram illustrating an example of an overall outline of the safety monitoring system 1 according to the present embodiment.
  • FIG. 2A is a diagram illustrating an example of a safety monitoring system 1 at a production site such as a factory.
  • FIG. 2B is a diagram illustrating an example of safety monitoring by the second sensor 30.
  • a production site such as a factory
  • the control of stopping the robot 5 or the like is widely performed. ..
  • a flexible and diverse safety monitoring system can be constructed according to the degree of danger.
  • the worker 6 is not limited to the worker, but means all human beings existing at the production site.
  • the safety monitoring system 1 to which the present invention is applied is a robot at a production site such as a factory where a robot 5 and a worker 6 (persons) coexist as described above.
  • a robot 5 and a worker 6 personnel coexist as described above.
  • the movement of the worker 6 can be grasped more reliably, and restrictions on the movement of the robot 5 can be suppressed.
  • the safety monitoring system 1 includes a safety monitoring control device 2, a first sensor 20, and a second sensor 30.
  • the safety monitoring control device 2 is a device that performs various controls and the like in order to make the safety monitoring system 1 function.
  • the first sensor 20 has a wide viewing angle and may be a sensor with relatively low accuracy
  • the second sensor 30 has a narrow viewing angle but can detect with high accuracy.
  • the first sensor 20 and the second sensor 30 have different monitoring ranges and the like. By combining the first sensor 20 and the second sensor 30 of different types in this way, the first sensor 20 and the second sensor 30 can function as a fusion sensor (Fusion Sensor).
  • the first sensor 20 monitors the entire work area (first area) including the warning area (second area) as a part, and whether or not the worker 6 exists in the entire work area, and the worker 6 If present, it monitors whether the worker 6 approaches the alert area.
  • the work area is an area where work such as production is actually performed at a production site where equipment such as a robot and a person coexist.
  • the entire work area is an area of the entire monitoring range monitored by the first sensor 20 in the work area.
  • the caution area is an area around the robot 5, and is set including a dangerous area as a part.
  • the dangerous area is an area where the robot 5 and the worker 6 may come into contact with each other when the worker 6 invades.
  • the mode determination unit 300 switches the second processing unit 200 to the "safety monitoring mode” (second mode), and the robot control unit 4 Performs control such as decelerating the robot 5.
  • the second processing unit 200 has two modes, a “safety monitoring mode” and a “normal mode” (first mode), depending on the degree of risk of contact between the robot 5 and the worker 6. , Can be switched.
  • the safety monitoring mode is a mode when the first processing unit 100 detects the approach of the worker 6 to the caution area, that is, when there is a high risk of contact between the robot 5 and the worker 6.
  • the normal mode is a mode when the first processing unit 100 does not detect the approach of the worker 6 to the caution area, that is, when the risk of contact between the robot 5 and the worker 6 is low.
  • a sensor capable of monitoring a wide range and detecting the positions, moving speeds, etc. of a plurality of robots 5 and workers 6 is used.
  • a sensor capable of monitoring a wide range and detecting the positions, moving speeds, etc. of a plurality of robots 5 and workers 6
  • it can be realized by using a known lidar (LiDAR, Light Detection and Langing), radar (RADAR, Radio Detection and Langing), millimeter-wave radar, vision sensor, or the like. ..
  • RADAR Light Detection and Langing
  • millimeter-wave radar it is possible to detect the position, moving direction, moving speed, etc. of the worker 6 and the like in a wide range even in a production factory with a lot of lighting and dust.
  • the millimeter-wave radar can detect the shape of an object within the monitoring range and the distance to the object, and can output it as an image.
  • the second sensor 30 monitors the warning area (second area), and when the worker 6 approaches the warning area, the second sensor 30 accurately monitors the degree of proximity between the worker 6 and the robot 5.
  • the second sensor 30 particularly monitors whether or not the worker 6 has invaded the danger zone set around the robot 5.
  • the robot 5 is, for example, a robot provided with an articulated manipulator, and has one or a plurality of movable parts such as an arm.
  • the dangerous area is an area where the moving part of the robot 5 and the worker 6 may come into contact with each other when the worker 6 invades.
  • the caution area includes a safety area that does not come into contact with the moving part of the robot 5 even if the worker 6 invades, and a danger area that may come into contact with the moving part of the robot 5.
  • the danger zone may be preset by the factory manager or the like, or dynamically by the danger zone setting unit 400 (shown in FIG. 1) of the safety monitoring control device 2 as described later based on FIG. It may be set.
  • the robot control unit 4 controls the robot 5 to stop the movement of the arm or the like.
  • a sensor having a narrow viewing angle and capable of detecting with high accuracy is used.
  • it can be realized by using a known vision sensor (Vision sensor), TOF sensor (Time Of Flight sensor), depth sensor, or the like.
  • the first sensor 20 and the second sensor 30 transmit the detected image data to the safety monitoring control device 2 wirelessly or by wire.
  • the safety monitoring control device 2 recognizes the image data from both sensors and grasps the movement of the worker 6.
  • the safety monitoring control device 2 controls the mode of the second processing unit 200 and the operation of the robot 5 based on this information.
  • the movement of the worker 6 can be grasped more reliably, the safety of the worker 6 can be ensured, and the restriction on the movement of the robot 5 can be suppressed.
  • FIG. 1 is a block diagram showing an example of a main configuration of the safety monitoring system 1 according to the first embodiment of the present invention. An example of the main part configuration of the safety monitoring system 1 will be described with reference to FIG.
  • the safety monitoring system 1 includes a safety monitoring control device 2, a first sensor 20, and a second sensor 30.
  • the safety monitoring control device 2 is a device that performs various controls and the like in order to make the safety monitoring system 1 function.
  • the safety monitoring control device 2 includes a control unit 10 that controls each part of the safety monitoring control device 2, a storage unit 11 that stores various data used by the safety monitoring control device 2, and an input unit 12 that receives an input operation. And a communication unit 13 for communicating with other devices.
  • the storage unit 11 may be a storage unit inside the safety monitoring control device 2, or may be a server, storage, or the like outside the safety monitoring control device 2.
  • the control unit 10 has the robot based on the image data from the first processing unit 100 and the second sensor 30 that control the modes of the robot 5 and the second processing unit 200 based on the image data from the first sensor 20.
  • a second processing unit 200 that controls 5 a mode determination unit 300 that determines the mode of the second processing unit 200, and a danger area setting unit 400 that dynamically sets the danger area are included.
  • the storage unit 11 stores a list of the worker skill level storage unit 110 in which the skill levels of all the workers 6 are stored, and the workers 6 currently existing in the work area.
  • the first processing unit 100 acquires the image data detected by the first sensor 20 and sends it to the approach determination unit 102.
  • the worker receives the image data sent from the first image acquisition unit 101 and the first image acquisition unit 101.
  • An approach determination unit 102 that extracts 6 and determines the movement of the worker 6 is included.
  • the first sensor 20 monitors the entire work area and transmits the image data of the entire work area to the first image acquisition unit 101 wirelessly or by wire.
  • the first image acquisition unit 101 sends the acquired image data to the approach determination unit 102.
  • the approach determination unit 102 attempts to extract the worker 6 from the sent image data by image recognition. When the worker 6 is extracted as a result of the image recognition, it is determined that the worker 6 exists in the work area. If it is not extracted, it is determined that the worker 6 does not exist in the work area.
  • the approach determination unit 102 determines whether or not the extracted worker 6 approaches the caution area. As described above, the first sensor 20 can detect the moving direction and the moving speed of the monitored object, so that the approach determination unit 102 determines whether or not the worker 6 approaches the caution area. Can be done.
  • the approach determination unit 102 continues the normal image recognition process.
  • the approach determination unit 102 causes the robot control unit 4 to operate the robot 5 via the communication unit 13. It is transmitted wirelessly or by wire so as to control such as decelerating.
  • the approach determination unit 102 notifies the mode determination unit 300 that the worker 6 is approaching the caution area.
  • the mode determination unit 300 sends an instruction to the mode control unit 202 to switch the mode of the second processing unit 200 from the first mode to the second mode.
  • the mode control unit 202 switches the mode of the second processing unit 200 to the second mode.
  • the second processing unit 200 can perform different operations depending on the degree of danger that the robot 5 and the worker 6 come into contact with each other.
  • the approach determination unit 102 is included in the safety monitoring control device 2 and has a different configuration from the first sensor 20, the approach determination unit 102 may be included in the first sensor 20.
  • the second processing unit 200 acquires the image data detected by the second sensor 30 and sends it to the dangerous area intrusion determination unit 203.
  • a mode control unit 202 that controls the mode of the danger zone intrusion determination unit 203 and the second processing unit 200 that extracts the worker 6 from the data and determines the movement of the worker 6 is included.
  • the second sensor 30 monitors the warning area and transmits the image data of the warning area to the second image acquisition unit 201 wirelessly or by wire.
  • the second image acquisition unit 201 sends the acquired image data to the danger area intrusion determination unit 203.
  • the danger area intrusion determination unit 203 extracts the worker 6 from the sent image data by image recognition, and determines whether or not the extracted worker 6 has invaded the danger area.
  • the second sensor 30 can detect the monitored object with high accuracy, so that the degree of proximity between the worker 6 and the robot 5 can be accurately detected.
  • the robot control unit 4 slows down the operation of the robot 5 until the worker 6 leaves the warning area. Continue control.
  • the intrusion determination unit 203 in the dangerous area determines that the worker 6 has invaded the dangerous area
  • the intrusion determination unit 203 in the dangerous area is a robot control unit wirelessly or by wire via the communication unit 13. It is transmitted to 4 to perform control such as stopping the operation of the robot 5.
  • the second processing unit 200 can ensure the safety of the worker 6.
  • the danger zone intrusion determination unit 203 is included in the safety monitoring control device 2 and has a different configuration from the second sensor 30, but the danger zone intrusion determination unit 203 is included in the second sensor 30. It may be configured as such.
  • the mode determination unit 300 is the second processing unit when the first processing unit 100 does not detect the approach of the worker 6 to the warning area, that is, when the risk of contact between the robot 5 and the worker 6 is low.
  • the 200 modes are determined to be the first mode (normal mode).
  • the mode of the second processing unit 200 is set.
  • Judged as the second mode safety monitoring mode.
  • the mode determination unit 300 sends the determination result to the mode control unit 202.
  • the mode control unit 202 switches the mode of the second processing unit 200 to the mode transmitted from the mode determination unit 300.
  • the second processing unit 200 can perform processing different from that of the second mode.
  • the second processing unit 200 In the second mode, there is a high risk that the robot 5 and the worker 6 come into contact with each other. Therefore, the second processing unit 200 needs to perform image recognition in order to detect the intrusion of the worker 6 into the dangerous area. ..
  • the second processing unit 200 can perform processing different from that in the second mode.
  • the second processing unit 200 can stop the image recognition for detecting the intrusion into the dangerous area.
  • the resource for image processing is limited, the resource can be allocated only to the second sensor 30 to which the worker 6 is approaching.
  • the second processing unit 200 can stop the power supply to the second sensor 30 to stop the operation. As a result, the second sensor 30 that the worker 6 is not approaching can be stopped to reduce the power consumption.
  • the second processing unit 200 stops image recognition, detects the position and shape of the work that is the work target of the robot 5, and transmits the position and shape to the work detection unit 3 via the communication unit 13.
  • the work detection unit 3 can send the received work information to the robot control unit 4.
  • the equipment can be simplified by providing the second sensor 30 with two functions of safety monitoring and work detection. Further, when the resource of image processing is limited, it is possible to process while exchanging two different image processes of safety monitoring and work detection, so that the resource load can be reduced.
  • the second processing unit 200 can send an instruction to the robot control unit 4 to operate the robot 5 at a higher speed in the first mode than in the second mode.
  • the production efficiency can be improved by operating the robot faster than usual.
  • the second processing unit 200 operates differently depending on the degree of danger of contact between the robot 5 and the worker 6, so that a more flexible and diverse safety monitoring system than before can be constructed. ..
  • FIG. 3 is a flowchart showing an example of the processing flow in the safety monitoring system 1.
  • the first sensor 20 monitors the entire work area and transmits the image data of the entire work area to the first image acquisition unit 101.
  • the first image acquisition unit 101 sends the image data to the approach determination unit 102, and proceeds to the process of S2.
  • the approach determination unit 102 determines the presence or absence of the worker 6 by image recognition from the image data acquired by the first sensor 20. If it is determined that the worker 6 exists (YES in S2), the process proceeds to S3. On the other hand, if it is determined that it does not exist (NO in S2), the process proceeds to S10.
  • the approach determination unit 102 further detects the moving direction and moving speed of the extracted worker 6 and determines whether or not to approach the caution area. When it is determined that the worker 6 approaches the caution area (YES in S3), the process proceeds to S4. On the other hand, if it is determined that they do not approach each other (NO in S3), the process proceeds to S10.
  • the mode control unit 202 switches the mode of the second processing unit 200 from the first mode to the second mode. Further, the robot control unit 4 slows down the operation of the robot 5 and proceeds to the process of S5.
  • the second sensor 30 monitors the warning area and transmits the image data of the warning area to the second image acquisition unit 201.
  • the second image acquisition unit 201 sends the image data to the danger area intrusion determination unit 203, and proceeds to the process of S6.
  • the danger area intrusion determination unit 203 determines whether or not the worker 6 has invaded the danger area by image recognition. If it is determined that the worker 6 has invaded (YES in S6), the process proceeds to S7. On the other hand, when it is determined that the intrusion has not occurred (NO in S6), the process returns to the process of S5, and the processes of S5 and S6 are repeated.
  • the robot control unit 4 controls the operation of the robot 5 such as stopping.
  • the intrusion determination unit 203 and the approach determination unit 102 in the dangerous area determine whether or not the worker 6 has left the dangerous area and has left the caution area.
  • the process proceeds to S9.
  • the process returns to the process of S7, and the processes of S7 and S8 are repeated.
  • the mode control unit 202 switches the mode of the second processing unit 200 from the second mode to the first mode.
  • the safety monitoring system 1 repeatedly executes the processes S1 to S9 until the production at the factory is completed.
  • the movement of the worker 6 can be grasped more reliably, the safety of the worker 6 can be ensured, and the restriction on the movement of the robot 5 can be suppressed.
  • the dangerous area setting unit 400 has described the dangerous area. May be configured to determine and set the danger zone.
  • the danger zone can be set dynamically.
  • the approach determination unit 102 detects the approaching speed of the worker 6 from the image data of the first sensor 20 and sends it to the danger area setting unit 400.
  • the danger area setting unit 400 sets the danger area wide when the approach speed of the worker 6 is fast, but operates the robot 5 by setting the danger area narrow when the approach speed of the worker 6 is slow. It is possible to suppress unnecessary restrictions and improve production efficiency.
  • the danger zone setting unit 400 can set the danger zone and the control method of the robot 5 based on the skill level of the worker 6.
  • the worker list 111 stores a list of workers 6 currently existing in the work area, and the worker skill level storage unit 110 stores information on skill levels such as skills and experiences of all the workers 6. Has been done.
  • the danger area setting unit 400 reads out the list of the workers 6 currently existing in the work area from the worker list 111, and acquires the skill level of the read worker 6 from the worker skill level storage unit 110.
  • the danger zone setting unit 400 sets the danger zone and the control method of the robot 5 according to the skill level of the worker 6.
  • avoidance means changing the trajectory of the movable portion of the robot to avoid contact with the operator 6.
  • the worker list 111 may be input from the input unit 12 by the factory manager, the worker 6 or the like, or may be read from the RF tag or the like carried by the worker 6 and transmitted via the communication unit 13. It may be one.
  • the first sensor 20 can detect the size, height, moving speed, etc. of the object to be monitored, it is possible to distinguish between the AIV and the worker 6. Further, when the detection result of the first sensor 20 is compared with the position information of the AIV stored in the predetermined server, the accuracy of distinguishing the AIV from the worker 6 can be further improved.
  • the robot 5 may be configured to operate at a higher speed. As a result, the production efficiency can be further improved.
  • the second sensor 30 is a sensor capable of simultaneously monitoring a plurality of locations with high accuracy, and for example, the focus can be controlled by a beamforming method. From the image data of the first sensor 20, the focus of the second sensor 30 can be set on the warning area approached by the worker 6 among the plurality of warning areas, and the distance between the worker 6 and the robot 5 can be detected. ..
  • the second sensor 30 may be installed so as to be movable on the orbit connecting the plurality of warning areas, and the second sensor 30 may be moved to the warning area approached by the worker 6 for monitoring.
  • a plurality of warning areas can be monitored by one second sensor 30, so that the equipment can be simplified.
  • the control block of the safety monitoring control device 2 (particularly, the first processing unit 100, the second processing unit 200, the mode determination unit 300, and the danger area setting unit 400 of the control unit 10) is formed in an integrated circuit (IC chip) or the like. It may be realized by a logic circuit (hardware) or by software.
  • the safety monitoring and control device 2 includes a computer that executes a program instruction, which is software that realizes each function.
  • This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention.
  • the processor for example, a CPU (Central Processing Unit) can be used.
  • the recording medium in addition to a “non-temporary tangible medium” such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • a RAM RandomAccessMemory
  • the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program.
  • a transmission medium communication network, broadcast wave, etc.
  • one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.
  • the safety monitoring system includes a second sensor that monitors a second area including a dangerous area set around the robot as a part, and the second sensor.
  • a first sensor that monitors a first region including a part of the region, a first processing unit that recognizes an image acquired by the first sensor and detects a person's approach to the second region, and the first processing unit.
  • the second processing unit that recognizes the image acquired by the two sensors and detects the intrusion of a person into the dangerous area, and the mode determination unit are provided.
  • the mode determination unit determines that the first mode does not detect the approach of a person to the second region as the first mode, and the mode determination unit detects that the person approaches the second region as the second mode, and the second process The operation of the unit differs between the first mode and the second mode.
  • the second processing unit operates differently depending on the degree of danger of contact between the robot and a person, so that a more flexible and diverse safety monitoring system than before can be constructed. ..
  • image recognition for detecting the intrusion of a person into the dangerous area is executed in the second mode and stopped in the first mode. May be done.
  • the second processing unit executes image recognition in order to detect the intrusion of the person into the dangerous area.
  • the resource load of image processing can be reduced by stopping the image recognition of the second sensor in which a person is not close to the robot.
  • the second sensor may be stopped in the first mode.
  • the second processing unit executes image recognition in order to detect the intrusion of the person into the dangerous area.
  • the first mode which has a low risk
  • power consumption can be reduced by stopping the second sensor in which a person is not approaching the robot.
  • the safety monitoring system may further include a work detection unit that recognizes the image acquired by the second sensor in the first mode and detects the work that is the work target of the robot. Good.
  • the second processing unit executes image recognition in order to detect the intrusion of the person into the dangerous area.
  • the second processing unit stops the execution of image recognition and detects the position and shape of the work target of the robot for the work of the robot. And send it to the robot control unit.
  • the equipment can be simplified. Further, when the resource of image processing is limited, it is possible to process while exchanging two different image processes of safety monitoring and work detection, so that the resource load can be reduced.
  • the safety monitoring system further includes a robot control unit that controls the robot, and the robot control unit may operate the robot at a higher speed in the first mode than in the second mode. Good.
  • the operation of the robot is decelerated in order to ensure the safety of the person.
  • the production efficiency can be improved by operating the robot faster than usual.
  • the safety monitoring system further includes a danger area setting unit that changes the range of the danger area according to the speed of the person's approach to the second area detected by the first processing unit. You may.
  • the dangerous area around the robot can be dynamically set, it is not necessary to set the dangerous area wider than necessary in advance, and unnecessary restrictions on the operation of the robot can be suppressed. ..
  • the first processing unit further identifies and detects a person approaching the second region, and the first processing unit identifies and detects the person.
  • a dangerous area setting unit that changes the range of the dangerous area may be further provided depending on the person approaching the second area.
  • the first sensor may be a millimeter wave radar.
  • the millimeter-wave radar By using the millimeter-wave radar, it is possible to detect the positions, moving speeds, etc. of a plurality of robots and workers in a wide range even in a production factory with a lot of lighting and dust.
  • the safety monitoring control device in one aspect of the present disclosure recognizes the image acquired by the first sensor that monitors the first region, including the second region around the robot as a part.
  • the robot which is a part of the second region, recognizes the images acquired by the first processing unit that detects the approach of a person to the second region and the second sensor that monitors the second region.
  • the mode determination unit includes a second processing unit that detects the intrusion of a person into a dangerous area set around the user, and a mode determination unit, in which the first processing unit causes the person to enter the second area. The time when the approach is not detected is determined as the first mode, and the time when the approach is detected is determined as the second mode, and the operation of the second processing unit differs between the first mode and the second mode.
  • the second processing unit operates differently depending on the degree of danger of contact between the robot and a person, so that more flexible and diverse safety monitoring can be performed than before.
  • the safety monitoring method in one aspect of the present disclosure recognizes an image acquired by a first sensor that monitors the first region, including a second region around the robot as a part.
  • the first processing step of detecting the approach of a person to the second area and the image acquired by the second sensor that monitors the second area are recognized, and the person enters the danger area set around the robot. It is determined that the second processing step for detecting the intrusion of the robot and the first processing step do not detect the approach of the person to the second region as the first mode, and detect the intrusion as the second mode.
  • the second processing step including the mode determination step, is stopped in the first mode and executed in the second mode.
  • Safety monitoring system Safety monitoring control device 3 Work detection unit 4 Robot control unit 5 Robot 6 Worker (person) 20 1st sensor 30 2nd sensor 100 1st processing unit 200 2nd processing unit 300 Mode judgment unit 400 Danger area setting unit

Abstract

ロボット等の機器と人とが共存する生産現場で、人の動きをより確実に把握し、人の安全を確保しつつ、機器の動作の制限を抑制する。安全監視システム(1)は、第2領域を監視する第2センサ(30)と、第1領域を監視する第1センサ(20)と、人(6)の第2領域への接近を検知する第1処理部(100)と、危険領域への人の侵入を検知する第2処理部(200)と、モード判定部(300)とを備え、モード判定部は、人の第2領域への接近を検知していないときを第1モード、検知しているときを第2モードと判断し、第1モードと第2モードとで動作が異なる。

Description

安全監視システム、安全監視制御装置、および安全監視方法
 本発明は、ロボット等の機器と、作業者等である人とが共存する環境下において、人の動きを把握して機器を制御する安全監視システム等に関する。
 従来、工場等の生産現場において、ロボットと作業者とが不用意に接触するのを回避するための各種の試みが知られている。例えば、下記の特許文献1には、ロボットの可動領域よりも広い所定の警戒領域内に、作業者の侵入が検知された場合、ロボットの動作を減速または停止させるロボット装置の制御方法が開示されている。
日本国公開特許公報「特開2010-208002号公報(2010年9月24日公開)」
 しかしながら、上記特許文献1の技術は、1台のセンサによって、監視対象のロボットの周辺領域でロボットおよび作業者の動作を、常時監視するものである。このようなロボットの周辺領域を監視するセンサでは、ロボット周囲を含めた工場の現場全体での人の動きを把握することはできない。そのため、例えば、作業者がロボット周辺領域の外からロボットに向かって走ってきた場合など、作業者の移動速度を把握することができないため、ロボットと作業者とが接触するおそれのある危険領域を、予め広く設定しておく必要がある。その結果、ロボットと作業者とが接触する可能性が無い場合であっても、ロボットの動作を減速または停止させるため、生産効率が低下するという問題がある。
 本発明の一態様は、前記の問題点に鑑みてなされたものであり、ロボット等の機器と人とが共存する生産現場で、人の動きをより確実に把握し、人の安全を確保しつつ、機器の動作の制限を抑制することができる安全監視システム等を提供することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る安全監視システムは、ロボットの周囲に設定される危険領域を一部に含む、第2領域を監視する第2センサと、前記第2領域を一部に含む、第1領域を監視する第1センサと、前記第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理部と、前記第2センサの取得した画像を認識し、前記危険領域への人の侵入を検知する第2処理部と、モード判定部と、を備えている。前記モード判定部は、前記第1処理部が、人の前記第2領域への接近を検知していないときを第1モード、検知しているときを第2モードと判断し、前記第2処理部は、前記第1モードと前記第2モードとで動作が異なる。
 また、上記課題を解決するために、本開示の一態様における安全監視制御装置は、ロボットの周囲の第2領域を一部に含む、第1領域を監視する第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理部と、前記第2領域を監視する第2センサの取得した画像を認識し、前記第2領域の一部である、前記ロボットの周囲に設定された危険領域への人の侵入を検知する第2処理部と、モード判定部とを備え、前記モード判定部は、前記第1処理部が、人の前記第2領域への接近を検知していない時を第1モード、検知している時を第2モードと判断し、前記第2処理部は、前記第1モードと前記第2モードとで動作が異なる。
 また、上記課題を解決するために、本開示の一態様における安全監視方法は、ロボットの周囲の第2領域を一部に含む、第1領域を監視する第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理ステップと、前記第2領域を監視する第2センサの取得した画像を認識し、前記ロボットの周囲に設定される危険領域への人の侵入を検知する第2処理ステップと、前記第1処理ステップが、人の前記第2領域への接近を検知していないときを第1モード、検知しているときを第2モードと判断するモード判定ステップとを含み、前記第2処理ステップは、前記第1モードでは停止され、前記第2モードでは実行される。
 本発明の一態様によれば、ロボット等の機器と人とが共存する生産現場で、人の動きをより確実に把握し、人の安全を確保しつつ、機器の動作の制限を抑制することができる。
本発明の実施形態1に係る安全監視システムの要部構成の一例を示すブロック図である。 本発明の実施形態1に係る安全監視システムの全体概要の一例を説明する図である。 上記安全監視制御システムが実行する処理の流れの一例を示すフローチャートである。
 〔実施形態1〕
 以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。なお、以下では、本発明を生産現場に応用した例に基づいて説明を進める。しかし、特許請求の範囲に記載の本発明の構成は、生産現場の他にも、人とロボット等の機器とが共存する種々の産業分野に応用可能であることを理解されたい。
 §1適用例
  <安全監視システムの全体概要>
 図2を参照して、まず、本発明が適用される構成の一例を説明する。図2は、本実施形態に係る安全監視システム1の全体概要の一例を説明する図である。図2の(a)は、工場等の生産現場の安全監視システム1の一例を説明する図である。図2の(b)は、第2センサ30による安全監視の一例を説明する図である。
 工場等の生産現場において、センサによるロボット5の周辺領域の監視によって、ロボット5と作業者6とが接触する可能性が検出された場合、ロボット5を停止等させる制御が、広く行われている。既設のこのような環境下においては、例えば、ミリ波レーダのように、生産現場全体を広く監視し、監視対象物の距離、移動方向、移動速度等を計測することができるセンサを増設することにより、危険性の程度に応じた、柔軟で多様な安全監視システムを構築することができる。なお、作業者6とは、作業者に限定されるものではなく、生産現場に存在するすべての人間を意味する。
 図2の(a)に例示するように、本発明が適用される安全監視システム1は、前述したような、ロボット5と作業者6(人)とが共存する工場等の生産現場において、ロボット5と作業者6との不用意な接触を回避するために、作業者6の動きをより確実に把握して、ロボット5の動作の制限を抑制することができる。
  (第1センサ)
 安全監視システム1は、安全監視制御装置2、第1センサ20、および第2センサ30とを含んで構成される。安全監視制御装置2は、安全監視システム1を機能させるために様々な制御等を行う装置である。
 第1センサ20は視野角が広く、比較的低精度のセンサであってもよく、第2センサ30は視野角が狭いが、高精度に検出できるセンサである。第1センサ20と第2センサ30は、特に、監視範囲等が異なる。このように種類の異なる第1センサ20と第2センサ30とを組合せることにより、第1センサ20および第2センサ30を、フュージョンセンサ(Fusion Sensor)として機能させることができる。
 第1センサ20は、警戒領域(第2領域)を一部に含む、作業領域全体(第1領域)を監視し、作業領域全体に作業者6が存在するか否か、また、作業者6が存在する場合、作業者6が警戒領域に接近するか否かを監視する。ここで、作業領域とは、ロボット等の機器と人とが共存する生産現場において、実際に生産等の作業が行われている領域のことである。また、作業領域全体とは、作業領域のうち、第1センサ20が監視する監視範囲全体の領域のことである。警戒領域とは、ロボット5の周辺領域のことであり、危険領域を一部に含んで設定される。危険領域とは、作業者6が侵入するとロボット5と作業者6とが接触するおそれのある領域のことである。
 作業者6の警戒領域への接近を検知すると、モード判定部300(図1に示す)は、第2処理部200を、「安全監視モード」(第2モード)に切り替えるとともに、ロボット制御部4は、ロボット5に対して減速させる等の制御を行う。第2処理部200は、「安全監視モード」と「通常モード」(第1モード)との2つのモードを有しており、ロボット5と作業者6とが接触する危険性の程度に応じて、切り換えることができる。安全監視モードとは、第1処理部100が作業者6の警戒領域への接近を検知しているとき、つまりロボット5と作業者6とが接触する危険性が高いときのモードである。一方、通常モードとは、第1処理部100が作業者6の警戒領域への接近を検知していないとき、つまりロボット5と作業者6とが接触する危険性が低いときのモードである。
 第1センサ20は、広範囲を監視することができ、複数のロボット5や作業者6等の位置、移動速度等を検出することができるセンサが使用される。例えば、公知のライダー(LiDAR、Light Detection and Ranging)、レーダ(RADAR、Radio Detection and Ranging)または、ミリ波レーダ(Millimeter-wave radar)、ビジョンセンサ(Vision sensor)などを用いて実現することができる。特に、ミリ波レーダを使用することにより、照明や埃の多い生産工場内でも、広範囲に、作業者6等の位置、移動方向、移動速度等を検出することができる。ミリ波レーダは監視範囲内の物体形状と物体までの距離を検出することができ、それを画像として出力できる。
  (第2センサ)
 次に、図2の(b)に基づいて、第2センサ30による監視の一例について説明する。第2センサ30は、警戒領域(第2領域)を監視し、作業者6が警戒領域に接近する場合、作業者6とロボット5との接近度合を精確に監視する。第2センサ30は、特に、作業者6が、ロボット5の周囲に設定される危険領域に侵入したか否かを監視する。
 ここで、危険領域および警戒領域について詳細に説明する。ロボット5は、例えば、多関節マニピュレータを備えるロボットであって、アーム等の1個または複数の可動部分を有している。危険領域とは、前述したように、作業者6が侵入するとロボット5の可動部分と作業者6とが接触するおそれのある領域のことである。警戒領域は、作業者6が侵入してもロボット5の可動部分と接触しない安全領域と、ロボット5の可動部分と接触するおそれのある危険領域とを含む。
 危険領域は、工場の管理者等によって予め設定されてもよいし、図1に基づいて後述するように、安全監視制御装置2の危険領域設定部400(図1に示す)によって、動的に設定されてもよい。
 作業者6が危険領域に侵入したことを検知すると、ロボット制御部4は、ロボット5に対して、アーム等の移動を停止させる等の制御を行う。
 第2センサ30は、視野角が狭く高精度に検出できるセンサが使用される。例えば、公知のビジョンセンサ(Vision sensor)、TOFセンサ(Time Of Flight sensor)、深度センサなどを用いて実現することができる。
 第1センサ20および第2センサ30は、無線または有線により、検出した画像データを安全監視制御装置2へ送信する。安全監視制御装置2は、両センサからの画像データを認識し、作業者6の動きを把握する。安全監視制御装置2は、これらの情報に基づいて、第2処理部200のモード、およびロボット5の動作を制御する。
 これにより、作業者6の動きをより確実に把握し、作業者6の安全を確保しつつ、ロボット5の動作の制限を抑制することができる。
 §2構成例
 図1は、本発明の実施形態1に係る安全監視システム1の要部構成の一例を示すブロック図である。図1に基づいて、安全監視システム1の要部構成の一例を説明する。
 安全監視システム1は、安全監視制御装置2、第1センサ20、および第2センサ30とを含んで構成される。安全監視制御装置2は、安全監視システム1を機能させるために様々な制御等を行う装置である。
 安全監視制御装置2は、安全監視制御装置2の各部を統括して制御する制御部10と、安全監視制御装置2が使用する各種データを記憶する記憶部11と、入力操作を受け付ける入力部12と、他の装置と通信するための通信部13とを備えている。記憶部11は、安全監視制御装置2内の記憶部であってもよいし、安全監視制御装置2外のサーバやストレージ等であってもよい。
 制御部10には、第1センサ20からの画像データに基づいて、ロボット5および第2処理部200のモードを制御する第1処理部100、第2センサ30からの画像データに基づいて、ロボット5を制御する第2処理部200、第2処理部200のモードを判定するモード判定部300、および危険領域を動的に設定する危険領域設定部400とが含まれる。
 記憶部11には、作業者6全員の熟練度が保存されている作業者熟練度記憶部110、現在作業領域に存在する作業者6のリストが格納されている。
  (第1処理部)
 第1処理部100には、第1センサ20が検出した画像データを取得して、接近判定部102へ送る第1画像取得部101、第1画像取得部101から送られた画像データから作業者6を抽出して、作業者6の動きを判定する接近判定部102が含まれる。
 まず、第1センサ20は、作業領域全体を監視し、作業領域全体の画像データを第1画像取得部101へ無線または有線により送信する。第1画像取得部101は、取得した画像データを、接近判定部102へ送る。接近判定部102は、送られた画像データから、画像認識により作業者6の抽出を試みる。画像認識の結果、作業者6が抽出された場合、作業領域に作業者6が存在すると判定する。抽出されなかった場合、作業領域に作業者6は存在しないと判定する。
 作業者6が存在すると判定した場合、接近判定部102は、さらに、当該抽出された作業者6が、警戒領域に接近するか否かを判定する。第1センサ20は、前述したように、監視対象物の移動方向や移動速度を検出することができるため、接近判定部102は、作業者6が警戒領域に接近するか否かを判定することができる。
 作業者6が警戒領域に接近しないと判定した場合、作業者6とロボット5とが接触するおそれが無い為、接近判定部102は、通常の画像認識処理を続ける。
 作業者6が警戒領域に接近すると判定した場合、作業者6とロボット5とが接触するおそれがある為、接近判定部102は、通信部13を介して、ロボット制御部4にロボット5の動作を減速させる等の制御をするよう、無線または有線により送信する。
 また、接近判定部102は、作業者6が警戒領域に接近していることを、モード判定部300に通知する。通知を受けたモード判定部300は、モード制御部202に対して第2処理部200のモードを第1モードから第2モードへ切り替えるよう指示を送る。指示を受けたモード制御部202は、第2処理部200のモードを、第2モードへ切り替える。
 これにより、ロボット5と作業者6とが接触する危険性の程度に応じて、第2処理部200は異なる動作をすることができる。
 なお、ここでは、接近判定部102は安全監視制御装置2に含まれ、第1センサ20とは別の構成としたが、接近判定部102を、第1センサ20に含まれる構成としてもよい。
  (第2処理部) 
 第2処理部200には、第2センサ30が検出した画像データを取得して、危険領域内侵入判定部203へ送る第2画像取得部201、第2画像取得部201から送られた画像データから作業者6を抽出して、作業者6の動きを判定する危険領域内侵入判定部203、第2処理部200のモードを制御するモード制御部202が含まれる。
 まず、第2センサ30は、警戒領域を監視し、警戒領域の画像データを第2画像取得部201へ無線または有線により送信する。第2画像取得部201は、取得した画像データを、危険領域内侵入判定部203へ送る。危険領域内侵入判定部203は、送られた画像データから画像認識により作業者6を抽出し、当該抽出された作業者6が、危険領域内に侵入しているか否かを判定する。第2センサ30は、前述したように、監視対象物を高精度に検出できるので、作業者6とロボット5の接近度合を精確に検出することができる。
 危険領域内侵入判定部203が、作業者6が危険領域内に侵入していないと判定した場合、作業者6が警戒領域から離れるまで、ロボット制御部4はロボット5の動作を減速させる等の制御を続ける。
 危険領域内侵入判定部203が、作業者6が危険領域内に侵入していると判定した場合、危険領域内侵入判定部203は、通信部13を介して、無線または有線により、ロボット制御部4にロボット5の動作を停止させる等の制御をするよう送信する。
 このように、高精度の第2センサ30で警戒領域を監視することによって、第2処理部200は、作業者6の安全を確保することができる。
 なお、ここでは、危険領域内侵入判定部203は安全監視制御装置2に含まれ、第2センサ30とは別の構成としたが、危険領域内侵入判定部203を、第2センサ30に含まれる構成としてもよい。
  (モード切り替え) 
 ここで、第2処理部200のモード切り替えについて説明する。モード判定部300は、第1処理部100が作業者6の警戒領域への接近を検知していないとき、つまりロボット5と作業者6とが接触する危険性が低いときは、第2処理部200のモードを第1モード(通常モード)と判断する。一方、第1処理部100が作業者6の警戒領域への接近を検知しているとき、つまりロボット5と作業者6とが接触する危険性が高いときは、第2処理部200のモードを第2モード(安全監視モード)と判断する。モード判定部300は、判断の結果をモード制御部202に送る。モード制御部202は、モード判定部300から送信されたモードに、第2処理部200のモードを切り替える。
 第1モードと判断されたとき、第2処理部200は、第2モードと異なる処理をすることができる。第2モードでは、ロボット5と作業者6とが接触する危険性が高いため、第2処理部200は、作業者6の危険領域への侵入を検知するために画像認識を実行する必要がある。しかし、ロボット5と作業者6とが接触する危険性が低い第1モードでは、第2処理部200は、第2モードと異なる処理をすることができる。
 第1モードでは、第2処理部200は、危険領域への侵入を検知するための画像認識を停止することができる。これにより、画像処理のリソースが限られているときは、作業者6が接近している第2センサ30にのみリソースを割り当てることができる。
 また、第1モードでは、第2処理部200は、第2センサ30への電源供給をストップして、動作を停止することができる。これにより、作業者6が接近していない第2センサ30を停止して、消費電力を削減することができる。
 また、第1モードでは、第2処理部200は画像認識を停止し、ロボット5の作業対象であるワークの位置や形状を検知して、通信部13を介して、ワーク検出部3に送信し、ワーク検出部3は、受信したワークの情報をロボット制御部4に送ることができる。これにより、安全監視とワーク検出という2つの機能を、第2センサ30に持たせることにより、設備を簡略化することができる。また、画像処理のリソースが限られている場合、安全監視とワーク検出という、2つの異なる画像処理を入れ替えながら処理することができるため、リソース負荷を低減することができる。
 さらに、第2処理部200は、第2モードよりも第1モードにおいて、ロボット5を高速に動作させるよう、ロボット制御部4に指示を送ることができる。これにより、ロボット5と作業者6とが接触する危険性が低い第1モードでは、ロボットを通常より速く動作させることによって、生産効率を向上させることができる。
 このように、ロボット5と作業者6とが接触する危険性の程度に応じて、第2処理部200が異なる動作をすることによって、従来より柔軟で多様な安全監視システムを構築することができる。
 §3処理の流れ
 図3に基づいて、安全監視システム1における処理の流れを説明する。図3は、安全監視システム1における処理の流れの一例を示すフローチャートである。
 S1において、第1センサ20は作業領域全体を監視し、作業領域全体の画像データを第1画像取得部101に送信する。第1画像取得部101は画像データを接近判定部102へ送り、S2の処理へ進む。
 S2において、接近判定部102は、第1センサ20が取得した画像データから画像認識によって、作業者6の存在の有無を判定する。作業者6が存在すると判定した場合(S2でYES)、S3の処理に進む。一方、存在しないと判定した場合(S2でNO)、S10の処理に進む。
 S3において、接近判定部102は、さらに、当該抽出された作業者6の移動方向や移動速度を検出して、警戒領域に接近するか否かを判定する。作業者6が警戒領域に接近すると判定した場合(S3でYES)、S4の処理に進む。一方、接近しないと判定した場合(S3でNO)、S10の処理に進む。
 S4において、モード制御部202は、第2処理部200のモードを第1モードから第2モードへ切り替える。また、ロボット制御部4はロボット5の動作を減速させ、S5の処理へ進む。
 S5において、第2センサ30は、警戒領域を監視し、警戒領域の画像データを第2画像取得部201へ送信する。第2画像取得部201は、画像データを危険領域内侵入判定部203へ送り、S6の処理へ進む。
 S6において、危険領域内侵入判定部203は、画像認識によって作業者6が危険領域内に侵入しているか否かを判定する。作業者6が侵入していると判定した場合(S6でYES)、S7の処理に進む。一方、侵入していないと判定した場合(S6でNO)、S5の処理に戻り、S5およびS6の処理を繰り返す。
 S7において、ロボット制御部4はロボット5の動作を停止等の制御をする。
 S8において、危険領域内侵入判定部203および接近判定部102は、作業者6が危険領域から出て警戒領域から離れたか否かを判定する。作業者6が警戒領域から離れたと判定した場合(S8でYES)、S9の処理に進む。一方、離れていないと判定した場合(S8でNO)、S7の処理に戻り、S7およびS8の処理を繰り返す。
 S9において、モード制御部202は、第2処理部200のモードを第2モードから第1モードへ切り替える。
 安全監視システム1は、S1からS9までの処理を、工場における生産が終了するまで繰り返し実行する。
 これにより、作業者6の動きをより確実に把握し、作業者6の安全を確保しつつ、ロボット5の動作の制限を抑制することができる。
 〔実施形態2〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1にて説明したものと同じ機能を有するものについては、同じ符号を付記し、その説明を繰り返さない。実施形態3以降も同様である。
 前述した例では、ロボット5と作業者6とが接触するおそれのある危険領域を、ロボット5の可動領域に基づいて、予め設定する例について説明したが、危険領域設定部400により、危険な範囲を判定して危険領域を設定する構成にしてもよい。
 従来は、作業者6が走ってロボット5に接近する場合に備えて、予め危険領域を広く設定する必要があった。しかし、作業領域全体を監視し、監視対象物の位置、移動方向、移動速度等を検出できるセンサを、第1センサ20として採用することにより、作業者6のロボット5への接近の速度に応じて、危険領域を動的に設定することができる。
 接近判定部102は、第1センサ20の画像データから、作業者6の接近する速度を検出して、危険領域設定部400に送る。危険領域設定部400は、作業者6の接近の速度が速い場合、危険領域を広く設定するが、作業者6の接近の速度が遅い場合、危険領域を狭く設定することによって、ロボット5の動作の無用な制限を抑制し、生産効率を向上させることができる。
 〔実施形態3〕
 危険領域設定部400は、作業者6の熟練度に基づいて、危険領域やロボット5の制御方法を設定することができる。作業者リスト111には、現在作業領域に存在する作業者6のリストが記憶されており、作業者熟練度記憶部110には、作業者6全員のスキル、経験等の熟練度の情報が保存されている。
 危険領域設定部400は、作業者リスト111から、現在作業領域に存在する作業者6のリストを読み出し、読み出した作業者6の熟練度を、作業者熟練度記憶部110から取得する。危険領域設定部400は、作業者6の熟練度に応じて危険領域やロボット5の制御方法を設定する。
 例えば、作業者6が初心者である場合、危険領域を広く設定し、作業者6が危険領域に侵入した場合、ロボット5を減速、回避、または停止させる等の制御を行う。ここで、回避とは、ロボットの可動部分の軌道を変更して作業者6との接触を回避することである。
 一方、作業者6が熟練者である場合、危険領域を狭く設定し、作業者6が危険領域に侵入した場合、ロボット5の動作の制限は行わず、警告等を発して作業者6の注意を喚起することができる。これにより、ロボット5の動作の無用な制限を抑制し、生産効率を向上させることができる。
 なお、作業者リスト111は、工場管理者および作業者6等により、入力部12から入力されてもよいし、作業者6が携帯するRFタグ等から読み取って通信部13を介して送信されたものでもよい。
 作業領域に、例えば、AIV(Autonomous Indoor Vehicle:運搬用自律走行ロボット)が存在する場合、AIVと作業者6を区別することが必要となる。作業者6が警戒領域に接近すると、ロボット5に対して減速等の制御をする必要があるが、AIVが警戒領域に接近しても、ロボット5を制御する必要はないためである。
 第1センサ20は、監視対象物の大きさ、高さ、移動速度等を検出することができるため、AIVと作業者6とを区別して検出することができる。また、第1センサ20の検出結果を、所定のサーバに保存されているAIVの位置情報と比較すると、AIVと作業者6との区別の精度をさらに向上させることができる。
 このように、AIVと作業者6との誤認を防ぎ、AIVの接近によるロボット5の動作の無用な制限を抑制し、生産効率を向上させることができる。なお、AIVは存在するが、作業者6が存在しない場合、ロボット5をより高速動作できる構成としてもよい。これにより、より生産効率を向上させることができる。
  <変形例>
 上記実施形態で説明した各処理は、適宜変更することが可能である。例えば、ロボット5が複数台ある場合、第1センサ20を活用することによって、1個の第2センサ30で複数の警戒領域を監視することができる。
 第2センサ30は、複数個所を同時に高精度で監視できるセンサであり、例えば、ビームフォーミング手法によりフォーカスを制御することができる。第1センサ20の画像データから、複数の警戒領域のうち、作業者6が接近する警戒領域に、第2センサ30のフォーカスを定め、作業者6とロボット5との距離を検出することができる。
 また、複数の警戒領域を結ぶ軌道上を移動可能に第2センサ30を設置して、作業者6が接近する警戒領域に第2センサ30を移動させて監視する構成をとってもよい。
 これにより、1個の第2センサ30で複数の警戒領域を監視することができるため、設備を簡略化することができる。
 〔ソフトウェアによる実現例〕
 安全監視制御装置2の制御ブロック(特に、制御部10の第1処理部100、第2処理部200、モード判定部300、危険領域設定部400)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、安全監視制御装置2は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 本発明は前述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
  <まとめ>
 上記の課題を解決するために、本発明の一態様に係る安全監視システムは、ロボットの周囲に設定される危険領域を一部に含む、第2領域を監視する第2センサと、前記第2領域を一部に含む、第1領域を監視する第1センサと、前記第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理部と、前記第2センサの取得した画像を認識し、前記危険領域への人の侵入を検知する第2処理部と、モード判定部と、を備えている。前記モード判定部は、前記第1処理部が、人の前記第2領域への接近を検知していないときを第1モード、検知しているときを第2モードと判断し、前記第2処理部は、前記第1モードと前記第2モードとで動作が異なる。
 前記の構成によれば、ロボットと人とが接触する危険性の程度に応じて、前記第2処理部が異なる動作をすることによって、従来より柔軟で多様な安全監視システムを構築することができる。
 本発明の一態様に係る安全監視システムでは、前記第2処理部において、人の前記危険領域への侵入の検知のための画像認識が、前記第2モードでは実行され、前記第1モードでは停止されてもよい。
 前記の構成によれば、ロボットと人とが接触する危険性が高い第2モードでは、前記第2処理部は、人の前記危険領域への侵入を検知するために画像認識を実行する。一方、危険性が低い第1モードでは、人がロボットに接近していない第2センサの画像認識を停止することによって画像処理のリソース負荷を低減することができる。
 本発明の一態様に係る安全監視システムでは、前記第2センサは、前記第1モードで停止してもよい。
 前記の構成によれば、ロボットと人とが接触する危険性が高い第2モードでは、前記第2処理部は、人の前記危険領域への侵入を検知するために画像認識を実行する。一方、危険性が低い第1モードでは、人がロボットに接近していない第2センサを停止することによって、消費電力を削減することができる。
 本発明の一態様に係る安全監視システムでは、前記第1モードで、前記第2センサの取得した画像を認識し、前記ロボットの作業対象であるワークを検出する、ワーク検出部を更に備えてもよい。
 前記の構成によれば、ロボットと人とが接触する危険性が高い第2モードでは、前記第2処理部は、人の前記危険領域への侵入を検知するために画像認識を実行する。一方、危険性が低い第1モードでは、前記第2処理部は、画像認識の実行を停止して、前記ロボットの作業のために、前記ロボットの作業対象であるワークの位置や形状を検知して、ロボット制御部に送る。このように、安全監視とワーク検出という2つの機能を、前記第2センサに持たせることにより、設備を簡略化することができる。また、画像処理のリソースが限られている場合、安全監視とワーク検出という、2つの異なる画像処理を入れ替えながら処理することができるため、リソース負荷を低減することができる。
 本発明の一態様に係る安全監視システムでは、前記ロボットを制御するロボット制御部を更に備え、前記ロボット制御部は、前記第2モードよりも前記第1モードにおいて前記ロボットを高速に動作させてもよい。
 前記の構成によれば、ロボットと人とが接触する危険性が高い第2モードでは、人の安全を確保するために、ロボットの動作を減速させる。一方、危険性が低い第1モードでは、ロボットを通常より速く動作させることによって、生産効率を向上させることができる。
 本発明の一態様に係る安全監視システムでは、前記第1処理部が検知する人の前記第2領域への接近の速度に応じて、前記危険領域の範囲を変更する危険領域設定部を更に備えてもよい。
 前記の構成によれば、動的にロボット周辺の危険領域を設定することができるため、予め必要以上に危険領域を広く設定する必要が無く、ロボットの動作の無用な制限を抑制することができる。
 本発明の一態様に係る安全監視システムでは、前記第1処理部は、更に、前記第2領域へ接近する人を識別して検知するものであり、前記第1処理部が識別して検知する、前記第2領域へ接近する人に応じて、前記危険領域の範囲を変更する危険領域設定部を更に備えてもよい。
 前記の構成によれば、作業者の熟練度などに基づいて、ロボット周辺の危険領域を設定したり、停止、減速、警告等のロボットの制御方法を選定することができる。このため、必要以上に危険領域を広く設定する必要が無く、ロボットの動作の無用な制限を抑制することができる。
 本発明の一態様に係る安全監視システムでは、前記第1センサは、ミリ波レーダであってもよい。ミリ波レーダを使用することにより、照明や埃の多い生産工場内でも、広範囲に、複数のロボットや作業者等の位置、移動速度等を検出することができる。
 また、上記課題を解決するために、本開示の一態様における安全監視制御装置は、ロボットの周囲の第2領域を一部に含む、第1領域を監視する第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理部と、前記第2領域を監視する第2センサの取得した画像を認識し、前記第2領域の一部である、前記ロボットの周囲に設定された危険領域への人の侵入を検知する第2処理部と、モード判定部とを備え、前記モード判定部は、前記第1処理部が、人の前記第2領域への接近を検知していない時を第1モード、検知している時を第2モードと判断し、前記第2処理部は、前記第1モードと前記第2モードとで動作が異なる。
 前記の構成によれば、ロボットと人とが接触する危険性の程度に応じて、前記第2処理部が異なる動作をすることによって、従来より柔軟で多様な安全監視をすることができる。
 また、上記課題を解決するために、本開示の一態様における安全監視方法は、ロボットの周囲の第2領域を一部に含む、第1領域を監視する第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理ステップと、前記第2領域を監視する第2センサの取得した画像を認識し、前記ロボットの周囲に設定される危険領域への人の侵入を検知する第2処理ステップと、前記第1処理ステップが、人の前記第2領域への接近を検知していないときを第1モード、検知しているときを第2モードと判断するモード判定ステップとを含み、前記第2処理ステップは、前記第1モードでは停止され、前記第2モードでは実行される。
 1   安全監視システム
 2   安全監視制御装置
 3   ワーク検出部
 4   ロボット制御部
 5   ロボット
 6   作業者(人)
 20  第1センサ
 30  第2センサ
 100 第1処理部
 200 第2処理部
 300 モード判定部
 400 危険領域設定部

Claims (10)

  1.  ロボットの周囲に設定される危険領域を一部に含む、第2領域を監視する第2センサと、
     前記第2領域を一部に含む、第1領域を監視する第1センサと、
     前記第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理部と、
     前記第2センサの取得した画像を認識し、前記危険領域への人の侵入を検知する第2処理部と、
     モード判定部と、を備え、
     前記モード判定部は、前記第1処理部が、人の前記第2領域への接近を検知していないときを第1モード、検知しているときを第2モードと判断し、
     前記第2処理部は、前記第1モードと前記第2モードとで動作が異なる、安全監視システム。
  2.  前記第2処理部において、人の前記危険領域への侵入の検知のための画像認識が、
     前記第2モードでは実行され、前記第1モードでは停止される、請求項1に記載の安全監視システム。
  3.  前記第2センサは、前記第1モードで停止する、請求項2に記載の安全監視システム。
  4.  前記第1モードで、前記第2センサの取得した画像を認識し、前記ロボットの作業対象であるワークを検出する、ワーク検出部を更に備える、請求項1または2に記載の安全監視システム。
  5.  前記ロボットを制御するロボット制御部を更に備え、
     前記ロボット制御部は、前記第2モードよりも前記第1モードにおいて前記ロボットを高速に動作させる、請求項1から4のいずれか1項に記載の安全監視システム。
  6.  前記第1処理部が検知する人の前記第2領域への接近の速度に応じて、前記危険領域の範囲を変更する危険領域設定部を更に備える、請求項1から5のいずれか1項に記載の安全監視システム。
  7.  前記第1処理部は、更に、前記第2領域へ接近する人を識別して検知するものであり、
     前記第1処理部が識別して検知する、前記第2領域へ接近する人に応じて、前記危険領域の範囲を変更する危険領域設定部を更に備える、請求項1から5のいずれか1項に記載の安全監視システム。
  8.  前記第1センサは、ミリ波レーダである、請求項1から7のいずれか1項に記載の安全監視システム。
  9.  ロボットの周囲の第2領域を一部に含む、第1領域を監視する第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理部と、
     前記第2領域を監視する第2センサの取得した画像を認識し、前記第2領域の一部である、前記ロボットの周囲に設定された危険領域への人の侵入を検知する第2処理部と、
     モード判定部と、を備え、
     前記モード判定部は、前記第1処理部が、人の前記第2領域への接近を検知していない時を第1モード、検知している時を第2モードと判断し、
     前記第2処理部は、前記第1モードと前記第2モードとで動作が異なる、安全監視制御装置。
  10.  ロボットの周囲の第2領域を一部に含む、第1領域を監視する第1センサの取得した画像を認識し、人の前記第2領域への接近を検知する第1処理ステップと、
     前記第2領域を監視する第2センサの取得した画像を認識し、前記ロボットの周囲に設定される危険領域への人の侵入を検知する第2処理ステップと、
     前記第1処理ステップが、人の前記第2領域への接近を検知していないときを第1モード、検知しているときを第2モードと判断するモード判定ステップと、を含み、
     前記第2処理ステップは、前記第1モードでは停止され、前記第2モードでは実行される、安全監視方法。
PCT/JP2020/009967 2019-05-28 2020-03-09 安全監視システム、安全監視制御装置、および安全監視方法 WO2020240977A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20815490.6A EP3978210A4 (en) 2019-05-28 2020-03-09 SAFETY MONITORING SYSTEM, SAFETY MONITORING CONTROL DEVICE AND SAFETY MONITORING METHOD
US17/605,003 US20220203538A1 (en) 2019-05-28 2020-03-09 Safety monitoring system, safety monitoring control device, and safety monitoring method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019099356A JP7226101B2 (ja) 2019-05-28 2019-05-28 安全監視システム、安全監視制御装置、および安全監視方法
JP2019-099356 2019-05-28

Publications (1)

Publication Number Publication Date
WO2020240977A1 true WO2020240977A1 (ja) 2020-12-03

Family

ID=73548487

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/009967 WO2020240977A1 (ja) 2019-05-28 2020-03-09 安全監視システム、安全監視制御装置、および安全監視方法

Country Status (4)

Country Link
US (1) US20220203538A1 (ja)
EP (1) EP3978210A4 (ja)
JP (1) JP7226101B2 (ja)
WO (1) WO2020240977A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220111527A1 (en) * 2021-12-22 2022-04-14 Intel Corporation Risk-based robot system configurator

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010208002A (ja) 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
JP2014176932A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法
JP2016209953A (ja) * 2015-05-08 2016-12-15 株式会社デンソーウェーブ ロボットの安全装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169342A (ja) * 1997-08-22 1999-03-09 Hitachi Denshi Ltd 侵入物体追尾画像処理システム
DE10152543A1 (de) * 2001-10-24 2003-05-08 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
JP5891061B2 (ja) * 2012-02-15 2016-03-22 株式会社日立製作所 映像監視装置、監視システム、監視システム構築方法
JP5906878B2 (ja) * 2012-03-27 2016-04-20 富士ゼロックス株式会社 電力供給制御装置、画像処理装置、電力供給制御プログラム
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US11192251B2 (en) * 2015-11-26 2021-12-07 Institut De Recherche Technologique Jules Verne Method and device for controlling a robot during co-activity
EP3243609A1 (en) * 2016-05-09 2017-11-15 OpiFlex Automation AB A fenceless industrial robot system
WO2018042498A1 (ja) * 2016-08-29 2018-03-08 マツダ株式会社 車両制御装置
WO2018131237A1 (ja) * 2017-01-13 2018-07-19 三菱電機株式会社 協働ロボットシステム、及びその制御方法
WO2018148181A1 (en) * 2017-02-07 2018-08-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control
JP2019000930A (ja) * 2017-06-13 2019-01-10 住友理工株式会社 安全装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010208002A (ja) 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
JP2014176932A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、及び、ロボットシステムの制御方法
JP2016209953A (ja) * 2015-05-08 2016-12-15 株式会社デンソーウェーブ ロボットの安全装置

Also Published As

Publication number Publication date
JP2020192635A (ja) 2020-12-03
US20220203538A1 (en) 2022-06-30
JP7226101B2 (ja) 2023-02-21
EP3978210A1 (en) 2022-04-06
EP3978210A4 (en) 2023-02-22

Similar Documents

Publication Publication Date Title
US10864637B2 (en) Protective-field adjustment of a manipulator system
US10802505B2 (en) Driverless transport system
US7623031B2 (en) Method and apparatus for the control of a safety-relevant function of a machine
EP2772336B1 (en) Recognition-based industrial automation control with position and derivative decision reference
JP2019109879A (ja) 自律車両のためのマルチセンサ安全経路システム
EP2783798B1 (en) Robot system and method for controlling robot system
WO2018131237A1 (ja) 協働ロボットシステム、及びその制御方法
JP2019069509A (ja) 人、ロボットおよび機械の協調作業を保護するための安全システム
KR20130047544A (ko) 적어도 하나의 공통 영역을 포함하여 각자의 작업 공간을 가지는 2대 이상의 로봇을 제어하는 방법
EP2728516B1 (en) Radio frequency identification in safety applications
US10031513B2 (en) Control apparatus of robot or machine tool, wireless teaching pendant, and automatic machine system
CN111678026A (zh) 机器的防护
WO2020240977A1 (ja) 安全監視システム、安全監視制御装置、および安全監視方法
JP2021079538A (ja) 動的経路計画のための状態機械
KR100974946B1 (ko) 크레인 충돌 방지 시스템 및 방법
CN108574505B (zh) 无人驾驶的运输系统
CN114620064A (zh) 车辆控制系统、自动驾驶车辆以及车辆控制方法
EP4252092A1 (en) Autonomous device safety system
EP3838476B1 (en) Machine tool for industrial processing operations comprising a system to monitor its operational safety, and method therefore
WO2021233386A1 (zh) 自动导引车以及控制自动导引车的方法和系统
JP2020093373A (ja) ロボット干渉判定装置、ロボット干渉判定方法、ロボット制御装置、およびロボット制御システム
WO2021059560A1 (ja) 情報処理装置、ロボット、および情報処理システム
KR20050006702A (ko) 로봇의 작업자 감지 안전 시스템
CN114706069A (zh) 安全系统和使用安全系统的方法
EP3473387A1 (en) Robot supervision system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20815490

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020815490

Country of ref document: EP

Effective date: 20220103