WO2018041743A1 - Verfahren und vorrichtung zur mensch-roboter kooperation - Google Patents

Verfahren und vorrichtung zur mensch-roboter kooperation Download PDF

Info

Publication number
WO2018041743A1
WO2018041743A1 PCT/EP2017/071470 EP2017071470W WO2018041743A1 WO 2018041743 A1 WO2018041743 A1 WO 2018041743A1 EP 2017071470 W EP2017071470 W EP 2017071470W WO 2018041743 A1 WO2018041743 A1 WO 2018041743A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
cooperation
area
safety
user
Prior art date
Application number
PCT/EP2017/071470
Other languages
English (en)
French (fr)
Inventor
Mohamad Bdiwi
Sebastian Krusche
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Publication of WO2018041743A1 publication Critical patent/WO2018041743A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40546Motion of object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40555Orientation and distance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection

Definitions

  • the present invention relates to a method and a device for human-robot cooperation (MRK).
  • the present invention is therefore based on the object to overcome the disadvantages mentioned, that is to propose a method and an apparatus for human-robot cooperation, by means of which a reliability is increased and a reliable adaptation to detected environmental conditions is achieved efficiently.
  • At least one safety-related information of an object in or on a monitoring area of the robot is determined by at least one sensor.
  • the safety-relevant information is classified by one evaluation unit as belonging to at least two possible classes, wherein a first class identifies a danger area in which no object is permitted during a movement of the robot, and a second class identifies a safety area in which an object is always located may be located.
  • a task to be performed by the robot is defined, and the task to be performed is classified as one of four cooperation stages, wherein a first cooperation stage comprises spatially separate task execution of the robot and a user on different components, a second cooperation stage a spatially separate task execution of the robot and of the user on a jointly processed component, a third cooperation stage comprises a joint task execution of the robot and the user on the jointly processed component without mutual physical contact of the robot and the user, and a fourth cooperation stage a joint task execution of the robot and the user on the common- comprises sam processed component with mutual physical contact.
  • the robot is controlled by the control unit as a function of the classification of the security-relevant information into one of the classes and depending on the division of the task to be performed in one of the cooperation stages.
  • a productivity of the human-robot cooperation as well as a reliability is increased by using a class-dependent and cooperative stage-dependent control structure or control structure.
  • a hazard to humans is already minimized.
  • the operational reliability can be further improved and the efficiency of the method can be increased, since a control of the robot adapted to the respective situation takes place.
  • This will create a cooperative workplace, i. H. an area in which a human being as an operator and at least one robot operate simultaneously, created with increased security by adaptive control of the robot so that work results between man and machine can be exchanged or work steps can be done together.
  • the monitoring area is typically identical to the workspace of the robot, i. H. it covers the area that the robot can reach when the robot arm is fully extended. However, it can also be provided to select the monitoring area slightly larger than the working area in order to also define any objects entering the surveillance area at an early stage. For this purpose, the monitoring area is preferably selected to be 1 m greater than the working area of the robot in all directions.
  • the robot can be configured as an industrial robot with six axes, preferably as a collaboration robot or as a lightweight robot.
  • collaboration robot is understood to mean those robot types which have been developed directly for MRK applications. They fulfill all requirements of the applicable regulation. From the ground up, it's easy Construction robots with additional safety features that allow one to move the robot in direct presence to humans. The force acting on a human impact should be as small as possible to prevent serious injury. The construction is designed to be lighter, so that the driving force does not have to be so high and the
  • the security-relevant information is classified by the evaluation unit as belonging to at least three possible classes, the third class defining a cooperation area in which an object may be located at specific times.
  • the third class is arranged in the spatial sequence between the first class and the second class and serves a finer subdivision and more precise control of the robot.
  • the monitoring area of the robot can be adapted dynamically by the evaluation unit as a function of signals of the robot and of the object detected by the sensor to a current working area of the robot in order to be able to react flexibly to various events and only to the respectively relevant area monitor.
  • the safety-relevant information is or comprises a distance and / or an angle between the robot and the object. These dimensions are usually easy to determine and allow a reliable estimate of whether the robot can reach the object and thus potentially damage it.
  • the control unit may be configured to configure the robot as a function of the classification of the safety-relevant information with regard to a
  • the robot or the robot arm can avoid the object or avoid a collision or at least perform it at reduced speed.
  • the adaptation of the monitoring area is preferably carried out with regard to its shape, extent and / or its location in order to be able to react as variably as possible to different states.
  • the adaptation of the monitoring area can also be carried out as a function of the speed, the position, the acceleration, the movement behavior and / or the trajectory of the robot.
  • the senor is spatially separated from and movable independently of the robot so that independent control of the surveillance area detached from the robot is possible.
  • a class-specific and / or stage-specific image-based, position-based, force-based and / or torque-based activation is typically carried out.
  • the appropriate adaptation can thus be carried out.
  • the optical sensor is preferably designed as a stereoscopic camera or as a stereoscopic camera system with a plurality of cameras in order to be able to obtain three-dimensional location information in an efficient manner.
  • the senor designed as a stereoscopic camera can record several recordings of the monitoring area, each of the recordings being stored in a ring memory of the evaluation unit, as well
  • the safety-relevant features that is to say in particular the distance and / or the angle, between the robot and an object located in the working area of the robot are determined.
  • the object located in the work area can be tracked. By tracking objects over time, they can be more reliably captured and simple predictions made about potential future hazards.
  • An object located on a recording which is no longer visible on a subsequent recording, can then be checked by the evaluation unit by ascertaining a distance of this object from further objects located in the workspace and a time interval between the two recordings, whether it is behind or located on one of the other objects. This makes it possible to reliably detect and track temporary obscured objects.
  • an object not yet located on a recording in the work area, which is visible on a subsequent recording can be identified by determining a distance of this object from other objects
  • Workspace located objects and a time interval between the two recordings is then checked by the evaluation, whether it was on the previous shot behind or on one of the other objects.
  • An apparatus for human-robot cooperation has a sensor which is set up to determine at least one safety-relevant information of an object in or on a monitoring area of the robot, an evaluation unit which is designed to provide the safety-relevant information by an evaluation unit as one of at least two classify a possible class, wherein a first class identifies a danger area in which no object is permitted in a movement of the robot, and a second class indicates a safety area in which an object may be located at any time, and a control unit which is set up, define a task to be performed by the robot as well as the task to be performed
  • the first cooperation stage comprises a spatially separate task execution of the robot and a user on different components, a second cooperation stage, a spatially separated task execution of the robot and the user on a jointly processed component, a third cooperation stage, a joint task execution of the robot and the user on the jointly processed component without mutual physical contact of the robot and the user, and a fourth cooperation stage, a joint task operation of the robot and the user on the jointly processed member with mutual physical contact.
  • the control unit is further configured to control the robot in one of the classes as a function of the division of the safety-relevant information into one of the classes and depending on the classification of the task to be performed in one of the cooperation stages.
  • the evaluation unit and the control unit may, in order to achieve a compact design, be housed in a single housing and / or realized by a single device as an evaluation control unit.
  • the device described is typically set up to carry out the method described or the method described can be carried out with the device described.
  • a computer program product with a computer program has software means for carrying out the described method when the computer program is executed in an automation system or a computing unit.
  • the computer program is typically used to control the device already described.
  • FIG. 1 is a schematic representation of four possible cooperation stages between robot and human;
  • FIG. 2 is a schematic three-dimensional view of a class division including associated control options;
  • FIG. 1 is a schematic representation of four possible cooperation stages between robot and human;
  • FIG. 2 is a schematic three-dimensional view of a class division including associated control options;
  • FIG. 1 is a schematic representation of four possible cooperation stages between robot and human;
  • FIG. 2 is a schematic three-dimensional view of a class division including associated control options;
  • FIG. 2 is a schematic three-dimensional view of a class division including associated control options;
  • Fig. 5 is a schematic representation of possible areas.
  • FIG. 1 shows a schematic representation of four possible cooperation stages between a robot 1 and a human 2 as a user of the robot 1 or as an object to be encountered in a working area of the robot 1.
  • the four possible cooperation levels characterize all interaction possibilities, so that each user can decide on the basis of a given task or application in which form the cooperation between the robot 1 and the human 2 should take place.
  • a classifier or a filter can be used to check for the presence of undesired events. This can also be determined in advance on the control unit or the evaluation unit, as well as what should be regarded as an undesirable event. If all given conditions are met for one area, the robot 1 can be moved at a desired speed or acceleration. If one of the conditions formulated does not apply, the movement of the robot 1 is immediately stopped until all conditions have been fulfilled. In each area, a different a control structure such as image-based, position-based, force-based or a hybrid control.
  • B a security fence. This may be the case when providing a heavy component 3 in a final assembly line of the automotive industry.
  • the robot 1 retrieves the component 3 from a storage area and places it at a mounting location.
  • the safety area comprises the working area of the person 2 in which the person 2 can safely move and in which the presence of the robot 1 is not allowed is.
  • the robot 1 may only be in the danger zone. As soon as the human 2 enters the danger area, the movement of the robot 1 is interrupted and only resumed when the person 2 has left it. In addition, the movement of the robot 1 is stopped when it exceeds the limits of the danger zone and enters the working area of the human 2.
  • the danger area is chosen smaller than a working area of the robot 1 in this embodiment.
  • the shape of the regions can be defined statically by specifying spatially fixed points or dynamically by coupling with a robot model.
  • the robot 1 can act at the maximum possible speed.
  • the human 2 and the robot 1 can work together at a very low level.
  • the human 2 can approach the robot 1 to a predetermined distance and cooperate.
  • This can be the case, for example, in the case of assembly tasks in which the robot 1 fixes the component 3 in a stationary manner and the human 2 performs work on the component 3.
  • the speed of the robot 1 should be reduced so much that there is no immediate danger to the person 2.
  • a cooperation area is defined at this level of cooperation.
  • the three areas are constructed in the form of a dish around the robot 1 in the illustrated embodiment.
  • the robot 1 and the human being 2 can perform common tasks. If the human 2 or another security-relevant object is detected in the cooperation area by a sensor, the speed of the robot 1 is reduced so much by the control unit according to a corresponding signal of the evaluation unit that there is no serious danger to the human 2.
  • the form of the cooperation area can be static or dynamic, ie it can be adapted in particular with regard to form, extent or location. Due to the additional area, the danger area is now coupled to the robot 1 and can change dynamically with a current pose of the robot 1.
  • a direct cooperation between the robot 1 and the human 2 is provided, a physical interaction, ie a mutual contact excluded.
  • the human 2 as a user can make clear to the robot 1 by hand movements that it stops or picks up movement.
  • an optical sensor is typically mounted on the robot 1 or in the working space, wherein the evaluation unit evaluates corresponding gestures of the user and instructs the control unit to execute corresponding control commands.
  • a transfer of the component 3 from the robot 1 to the human 2 can take place.
  • the human 2 signals the robot 1 via a gesture his readiness to accept.
  • the robot 1 then steers towards an open hand of the human 2 until the human 2 touches the object. Confirmed by applying a force the human 2 that the object is gripped and the robot 1 opens its gripper attached to the robot arm.
  • three or four areas can again be provided in the form of a shell around the robot 1.
  • a first cooperation area in which the robot 1 may only operate at reduced speed.
  • a second area of cooperation which is also referred to as a transfer area, the direct cooperation described should take place and the evaluation unit and the control unit allow only in this area
  • the regions may again be static or dynamic.
  • the shape of the transfer area can be coupled to the robot 1 so that an approach of the person 2 is registered immediately.
  • a danger zone is defined in which the robot 1 immediately stops when the human 2 enters.
  • a direct cooperation with physical interaction between the human 2 and the robot 1 can be achieved.
  • a leadership of the robot 1 by means of a force-torque control is possible.
  • this cooperation level is used to position heavy components 3 in an assembly site that is only cumbersome or difficult to access.
  • the robot 1 waits with the gripped component 3 until the human 2 enters the first cooperation area and guides the robot 1 in the desired direction by applying force to the component 3 or to the gripper.
  • the robot 1 carries the load and the human 2 can concentrate on the positioning.
  • the area structure of the fourth cooperation stage is configured in the illustrated embodiment as the structure of the third cooperation level.
  • Name Name of the string e.g. Cooperation, Safe, Dangerously rich etc.
  • Type Type of BeString 1. "Static”: Static area reichs 2. "Dynamic”: Dynamic area based on robot 1 (orientation based on robot cell).
  • “Dynamic_rot” dynamic range that is oriented to the robot 1 (orientation based on the robot model).
  • n_events number of integers unlimited
  • a safety-relevant feature such as a distance between the human 2 and the robot 1 is determined by a sensor, for example a stereoscopic camera, and a corresponding division into different classes or areas made on the basis of this safety-relevant feature.
  • the evaluation unit also makes a division depending on the cooperation level in addition to the area division and, in interaction between the evaluation unit and the control unit, achieves a corresponding control by controlling the robot axes. This is illustrated schematically in FIG. 2 by the modifiable three translational and three rotational degrees of freedom, by means of which the trajectory of the robot 1 is defined. Recurring features are provided in this figure as well as in the other figures with identical reference numerals.
  • FIG. 3 shows a tabular overview of security functions in each of the cooperation stages. For example, it should be possible to stop the robot 1 in each of the cooperation stages.
  • Security functions which are provided in each cooperation stage, are provided with a hook, while excluded security functions of the respective cooperation stage are marked with a cross.
  • Optional functions are defined by the handle "optional" marked in the table.
  • a heavy component 3 may be located in the gripper of the robot 1 to which something is to be mounted.
  • the human 2 approaches the component 3 or the robot 1 so strongly that only a single object can still be detected by the camera.
  • the human 2 can also sit on a chair and in the camera recording the human 2 and the chair merge into a single object.
  • obscured a smaller object is obscured by a larger object, which presupposes that both are in alignment with the camera. The smaller object must be farther away from the camera than the larger object. Due to the perspective, the camera or the algorithm can not recognize the second object in the image or in the image.
  • a box of components 3 may be in the working space.
  • the human 2 covers this with his entire body, so that the box in the recording is no longer findable. But it may also be a small part of the robot 1 in the field of view of the camera, such as the gripper.
  • the small object disappears behind the larger object.
  • the two error cases “separation” and “cover” occur when the algorithm has detected a new object in the workspace. If these two errors do not occur, the new object has entered the working space from the outside.
  • the algorithm so far detected two objects as a single object because their distance from one another is too small. After both objects have moved away from each other, they are recognized as two separate objects in the shot.
  • the human 2 can mount on the component 3 which is held by the gripper of the robot 1. Due to the small distance, only a single object is detected.
  • the human 2 moves away from the robot 1 so that a new object i of the recording is now recognized.
  • the person 2 can also get up from a chair after work has been completed, as a result of which the algorithm now recognizes a second object at a point at which the human 2 had previously sat.
  • the algorithm can not detect a hidden object in the shot because of the perspective.
  • the movement of the obscuring object makes it visible.
  • the algorithm now captures the previously covered object.
  • the human 2 the component 3 on the gripper of the
  • a separate classifier is used in each case in the computer program.
  • the algorithm stores data of an object over several cycles in a ring memory. If the maximum of the ring buffer is reached, which is typically part of the evaluation unit, the oldest entry in time is automatically deleted. Each object with its own identification number is noted in a ring buffer.
  • FIG. 4 schematically shows such a classifier as a flow chart.
  • FIG. 3 shows the required security functions compared to the four cooperation stages described.
  • the security requirements result from the type of cooperation between the human 2 and the robot 1. The closer the human 2 and the robot 1 work together, the more detailed the information of the environment in which the MRC process takes place must be.
  • the safety stop function This function is required in all cooperation levels or cooperation levels.
  • the safety function should check whether the presence of human 2 or robot 1 in the respective area is permitted. Furthermore, the distance between the robot 1 and the human 2 is calculated.
  • the second safety function checks whether an error has occurred or not. If this is the case, it will be verified if it is approved in the respective area or not. In principle, the error cases are not desired at any time, but may occur in the third and fourth cooperation stage due to the proximity between the human 2 and the robot 1.
  • the robot position is monitored at all stages of cooperation at all stages.
  • the control / influencing is only required if direct cooperation takes place, ie in the third and fourth cooperation stage second level of cooperation when the need is there.
  • FIG. 5 shows the robot 1 within the working space 4 in a schematic view.
  • the working space 4 is monitored via a stereoscopic camera 5 as a sensor, which is arranged spatially separated from the robot 1 and is located above the robot foot and is connected to an evaluation unit 6 and a control unit 7.
  • the evaluation unit 6 and the control unit 7 are implemented in the illustrated embodiment in a single device, a computer on which runs the computer program for performing the method of human-robot cooperation.
  • the working space 4 is divided into equal virtual partial areas. In the immediate vicinity of the robot 1, the danger area 8 is defined and characterized by a vertical hatching, while an adjacent cooperation area 9 is marked by a horizontal hatching.
  • the security area 10, in which the man 2 may stay, is not shown hatched.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Mensch-Maschine-Kooperation, bei dem durch mindestens einen Sensor mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters (1) bestimmt wird und die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt wird. In einer Steuereinheit (7) wird eine durchzuführende Aufgabe des Roboters (1) definiert sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt. Der Roboter (1) wird durch eine Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen in eine der Kooperationsstufen angesteuert.

Description

Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Mensch-Roboter-Kooperation (MRK).
Eine große Produktvielfalt und steigende Fertigungszahlen erfordern flexible bzw. effektiv arbeitende Produktionsketten. Um diesen Anforderungen gerecht zu werden, wird verstärkt versucht, Kollaborationen zwischen Mensch und Roboter in Herstellungsprozesse zu integrieren.
Aus dem Stand der Technik sind hierbei Systeme bekannt, bei denen Leichtbauroboter mit taktilen Sensoren oder Drehmomentsensoren in ihren Gelenken zum Einsatz kommen. Bei einer Kollision wird die Bewegung derartiger Roboter gestoppt. Nachteilig daran ist, dass der Roboter nur mit einer ver- gleichsweise geringen Geschwindigkeit arbeitet.
Außerdem ist bekannt, bildgebende Sensoren zu installieren, in deren Blick- feld der Roboter angeordnet ist. Aus der Druckschrift DE 10 2010 017 857 AI ist beispielsweise eine Sicherheitsvorrichtung bekannt, bei der ein Arbeitsbereich des Roboters durch Kameras überwacht wird. Eine vollständige Erfassung des Roboters ist jedoch oftmals nicht in allen Posen möglich bzw. Objekte können sich auch außerhalb eines überwachten Bereichs befinden oder verdeckt sein.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die genannten Nachteile zu überwinden, also ein Verfahren und eine Vorrichtung zur Mensch-Roboter-Kooperation vorzuschlagen, mittels derer eine Betriebssicherheit erhöht wird und eine zuverlässige Anpassung an detektierte Umgebungsbedingungen effizient erreicht wird.
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren nach Anspruch 1 und eine Vorrichtung nach Anspruch 12. Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen beschrieben.
Bei einem Verfahren zur Mensch-Roboter-Kooperation wird durch mindestens einen Sensor mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters bestimmt. Die sicherheitsrelevante Information wird durch eine Auswerteeinheit als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt, wobei eine erste Klasse einen Gefahrenbereich, in dem kein Objekt bei einer Bewegung des Roboters zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich kennzeichnet, in dem sich jederzeit ein Objekt befinden darf. In einer Steuereinheit wird eine durchzuführende Aufgabe des Roboters definiert sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und eines Benutzers an unterschiedlichen Bauteilen umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und des Benutzers an einem gemeinsam bearbeiteten Bauteil umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil ohne gegenseitige physische Berührung des Roboters und des Benutzers umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemein- sam bearbeiteten Bauteil mit gegenseitiger physischer Berührung umfasst. Der Roboter wird durch die Steuereinheit in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperations- stufen angesteuert.
Mit dem beschriebenen Verfahren wird eine Produktivität der Mensch- Roboter-Kooperation sowie eine Betriebssicherheit erhöht, indem eine klassenabhängige und kooperationsstufenabhängige Regelungsstruktur bzw. Steuerungsstruktur verwendet wird. Durch das Vorsehen mehrerer Klassen, die je nach Gefährdungsgrad des menschlichen Benutzers, der auch das im Überwachungsbereich detektierte Objekt sein kann, eine unterschiedliche Ansteuerung des Roboters nach sich ziehen, wird eine Gefährdung des Menschen bereits minimiert. Indem dies jedoch gekoppelt wird mit einer Berück- sichtigung der durchzuführenden Aufgabe, kann die Betriebssicherheit weiter verbessert und die Effizienz des Verfahrens erhöht werden, da eine der jeweiligen Situation angepasste Ansteuerung des Roboters erfolgt. Hierdurch wird ein kooperativer Arbeitsplatz, d. h. ein Bereich, in dem ein Mensch als Bedienperson und mindestens ein Roboter gleichzeitig tätig sind, mit erhöhter Sicherheit durch eine adaptive Steuerung bzw. Regelung des Roboters geschaffen, so dass Arbeitsergebnisse zwischen Mensch und Maschine ausgetauscht bzw. Arbeitsschritte gemeinsam erledigt werden können.
Der Überwachungsbereich ist typischerweise mit dem Arbeitsbereich des Ro- boters identisch, d. h. er umfasst den Bereich den der Roboter bei vollständig ausgestrecktem Roboterarm erreichen kann. Es kann jedoch auch vorgesehen sein, den Überwachungsbereich geringfügig größer als den Arbeitsbereich zu wählen, um auch eventuell in den Überwachungsbereich eintretende Objekte frühzeitig zu definieren. Vorzugsweise ist der Überwachungsbereich hierzu in allen Richtungen 1 m größer als der Arbeitsbereich des Roboters gewählt.
Der Roboter kann als Industrieroboter mit sechs Achsen, vorzugsweise als Kollaborationsroboter oder als Leichtbauroboter, ausgestaltet sein. Im Rahmen dieser Schrift sollen als "Kollaborationsroboter" diejenigen Robotertypen verstanden werden, die direkt für MRK-Applikationen entwickelt wurden. Sie erfüllen alle Ansprüche der gelten Vorschrift. Von Grund auf sind es Leicht- bauroboter mit zusätzlichen Sicherheitsfunktionen, die es einem erlauben, den Roboter in direkter Gegenwart zum Menschen zu verfahren. Die Kraft, die bei einem Einschlag auf den Menschen wirkt, sollte so gering wie möglich sein, damit keine schweren Verletzungen entstehen. Die Konstruktion ist leichter ausgelegt, damit die Antriebskraft nicht so hoch sein muss und die
Masse schneller gestoppt werden kann.
Als "Leichtbauroboter" sollen im Rahmen dieser Schrift Roboter verstanden werden, die für eine niedrigere Traglast ausgelegt sind und eine geringere Reichweite als Kollaborationsroboter haben. Ihre gesamte Konstruktion ist leichter ausgelegt, weil keine so hohe Steifigkeit erforderlich ist.
Es kann vorgesehen sein, dass die sicherheitsrelevante Information durch die Auswerteeinheit als einer von mindestens drei möglichen Klassen zugehörig eingeteilt wird, wobei die dritte Klasse einen Kooperationsbereich definiert, in der sich zu bestimmten Zeitpunkten ein Objekt befinden darf. Typischerweise ist die dritte Klasse in der räumlichen Abfolge zwischen der ersten Klasse und der zweiten Klasse angeordnet und dient einer feineren Unterteilung und präziseren Steuerung des Roboters.
Der Überwachungsbereich des Roboters kann von der Auswerteeinheit dynamisch in Abhängigkeit von von dem Sensor detektierten Signalen des Roboters und des Objekts an einen aktuellen Arbeitsbereich des Roboters ange- passt werden, um flexibel auf verschiedene Vorkommnisse reagieren zu kön- nen und nur den jeweils relevanten Bereich zu überwachen.
Typischerweise ist die sicherheitsrelevante Information ein Abstand und bzw. oder ein Winkel zwischen dem Roboter und dem Objekt bzw. umfasst diese Maße. Diese Maße sind in der Regel einfach zu bestimmen und erlauben eine zuverlässige Abschätzung, ob der Roboter das Objekt erreichen und somit potentiell schädigen kann.
Die Steuereinheit ausgebildet sein, den Roboter in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information hinsichtlich einer
translatorischen Bewegung in mindestens einem Freiheitsgrad, einer rotatorischen Bewegung in mindestens einem Freiheitsgrad, einer Geschwin- digkeit und bzw. oder einer Beschleunigung der Bewegung anzusteuern. Durch Ändern einer Bewegungstrajektorie bedingt durch eine entsprechende Ansteuerung zum Durchführen translatorischer bzw. rotatorischer Bewegungen kann der Roboter bzw. der Roboterarm dem Objekt ausweichen bzw. eine Kollision vermeiden oder zumindest mit verringerter Geschwindigkeit durchführen.
Die Anpassung des Überwachungsbereichs wird vorzugsweise hinsichtlich seiner Form, Ausdehnung und bzw. oder seines Orts durchgeführt, um möglichst variabel auf verschiedene Zustände reagieren zu können. Die Anpassung des Überwachungsbereichs kann hierbei auch in Abhängigkeit von der Geschwindigkeit, der Position, der Beschleunigung, des Bewegungsverhaltens und bzw. oder der Trajektorie des Roboters vorgenommen werden.
Typischerweise ist der Sensor räumlich getrennt von dem Roboter angeordnet und unabhängig von diesem bewegbar, so dass eine unabhängige Kontrolle des Überwachungsbereichs losgelöst vom Roboter möglich ist.
In Abhängigkeit von der Einteilung wird typischerweise eine klassenspezifische und bzw. oder stufenspezifische bildbasierte, positionsbasierte, kraftbasierte und bzw. oder drehmomentbasierte Ansteuerung durchgeführt. Je nach Art der detektierten sicherheitsrelevanten Information kann somit die passende Anpassung durchgeführt werden.
Es kann vorgesehen sein, die sicherheitsrelevante Information durch einen optischen Sensor, einen induktiven Sensor, einen kapazitiven Sensor, einen thermischen Sensor, einen Kraftsensor und bzw. oder einen Drehmomentsensor zu detektieren. Es können natürlich auch Mischtypen der genannten Sensoren verwendet werden, beispielsweise ein kapazitiv arbeitender Kraftsensor. Der optische Sensor ist vorzugsweise als stereoskopische Kamera bzw. als stereoskopisches Kamerasystem mit mehreren Kameras ausgebildet, um dreidimensionale Ortsinformationen in effizienter Weise erhalten zu können.
Insbesondere der als stereoskopische Kamera ausgebildete Sensor kann mehrere Aufnahmen des Überwachungsbereichs aufnehmen, wobei jede der Aufnahmen in einem Ringspeicher der Auswerteeinheit abgespeichert wird sowie in jeder der Aufnahmen durch die Auswerteeinheit das sicherheitsrelevante Merkmale, also insbesondere der Abstand und bzw. oder der Winkel, zwischen dem Roboter und einem im Arbeitsbereich des Roboters befindlichen Objekts ermittelt wird. Durch einen paarweisen Vergleich zu unterschiedli- chen Zeitpunkten erfasster Aufnahmen kann das im Arbeitsbereich befindliche Objekt nachverfolgt werden. Durch eine zeitliche Verfolgung von Objekten können diese zuverlässiger erfasst werden und einfacher Vorhersagen hinsichtlich potentieller zukünftiger Gefährdungen getroffen werden. Ein auf einer Aufnahme befindliches Objekt, das auf einer nachfolgenden Aufnahme nicht mehr sichtbar ist, kann durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und eines zeitlichen Abstands zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit überprüft wird, ob es sich hinter oder auf einem der weiteren Objek- te befindet. Dies erlaubt es, zeitweise verdeckte Objekte zuverlässig zu detek- tieren und nachzuverfolgen.
Alternativ oder zusätzlich kann ein auf einer Aufnahme im Arbeitsbereich bislang nicht befindliches Objekt, das auf einer nachfolgenden Aufnahme sicht- bar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im
Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit überprüft wird, ob es sich auf der vorhergehenden Aufnahme hinter oder auf einem der weiteren Objekte befand.
Eine Vorrichtung zur Mensch-Roboter-Kooperation weist einen Sensor, der eingerichtet ist, mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters zu bestimmen, eine Auswerteeinheit, die ausgebildet ist, die sicherheitsrelevante Information durch eine Auswerteeinheit als einer von mindestens zwei möglichen Klassen zugehörig einzuteilen, wobei eine erste Klasse einen Gefahrenbereich, in dem kein Objekt bei einer Bewegung des Roboters zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, und eine Steuereinheit auf, die eingerichtet ist, eine durchzu- führende Aufgabe des Roboters zu definieren sowie die durchzuführende
Aufgabe als einer von vier Kooperationsstufen zugehörig einzuteilen. Eine erste Kooperationsstufe umfasst eine räumlich getrennte Aufgabenverrichtung des Roboters und eines Benutzers an unterschiedlichen Bauteilen, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und des Benutzers an einem gemeinsam bearbeiteten Bauteil, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil ohne gegenseitige physische Berührung des Roboters und des Benutzers, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil mit gegenseitiger physischer Berührung. Die Steuereinheit ist weiter dazu ausgebildet, den Roboter in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen anzusteuern.
Die Auswerteeinheit und die Steuereinheit können, um eine kompakte Bauform zu erreichen, in einem einzigen Gehäuse untergebracht sein und bzw. oder durch ein einziges Gerät als Auswerte-Steuereinheit realisiert sein.
Die beschriebene Vorrichtung ist typischerweise zum Durchführen des beschriebenen Verfahrens eingerichtet bzw. das beschriebene Verfahren kann mit der beschriebenen Vorrichtung durchgeführt werden.
Ein Computerprogrammprodukt mit einem Computerprogramm weist Softwaremittel zum Durchführen des beschriebenen Verfahrens auf, wenn das Computerprogramm in einem Automatisierungssystem bzw. einer Recheneinheit ausgeführt wird. Das Computerprogramm wird typischerweise zum Steuern der bereits beschriebenen Vorrichtung eingesetzt.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der Figuren 1 bis 5 erläutert.
Es zeigen:
Figur 1 eine schematische Darstellung von vier möglichen Kooperationsstufen zwischen Roboter und Mensch; Fig. 2 eine schematische dreidimensionale Ansicht einer Klasseneinteilung samt zugeordneter Ansteuerungsmöglichkeiten;
Fig. 3 eine tabellarische Übersicht von Sicherheitsfunktionen in jeder der Kooperationsstufen;
Fig. 4 ein Ablaufdiagramm einer Überprüfung eines Objekts und
Fig. 5 eine schematische Darstellung möglicher Bereiche.
Figur 1 zeigt in einer schematischen Darstellung vier mögliche Kooperationsstufen zwischen einem Roboter 1 und einem Menschen 2 als Benutzer des Roboters 1 bzw. als in einem Arbeitsbereich des Roboters 1 anzutreffendes Objekt. Die vier möglichen Kooperationsstufen kennzeichnen sämtliche Interaktionsmöglichkeiten, so dass jeder Benutzer anhand einer gestellten Aufgabe bzw. Applikation entscheiden kann, in welcher Form die Kooperation zwischen dem Roboter 1 und dem Menschen 2 stattfinden soll.
In jeder Kooperationsstufe wird definiert, wie viele Bereiche es an einem Arbeitsplatz gibt und welche Eigenschaften diese haben. Neben der Form und Größe dieser Bereiche wird typischerweise auch festgelegt, ob der Roboter 1 bzw. der Mensch 2 in diesen Bereichen anwesend sein darf oder nicht. Ein in einer Auswerteeinheit bzw. Steuereinheit als Computerprogramm ablaufender Algorithmus kann hierbei zyklisch wiederkehrend überprüfen, in welchem Bereich sich ein Objekt wie der Mensch 2 befindet und ob dessen Anwesenheit an dieser Position nach den Vorgaben erlaubt ist.
Damit ein Bereich als Sicherheitsbereich angesehen wird, kann durch einen Klassifikator bzw. ein Filter auf ein Vorliegen unerwünschter Ereignisse überprüft werden. Dies kann auch im Vorfeld bereits an der Steuereinheit bzw. der Auswerteeinheit festgelegt werden, ebenso, was als unerwünschtes Ereignis angesehen werden soll. Sind für einen Bereich alle vorgegebenen Bedingungen erfüllt, kann der Roboter 1 mit einer gewünschten Geschwindigkeit bzw. Beschleunigung verfahren werden. Trifft eine der formulierten Bedingungen nicht zu, wird die Bewegung des Roboters 1 sofort unterbunden, bis wieder alle Bedingungen erfüllt sind. In jedem Bereich kann hierzu eine unterschiedli- che Regelungsstruktur wie beispielsweise bildbasiert, positionsbasiert, kraftbasiert oder eine hybride Regelung definiert sein.
In der ersten Kooperationsstufe ist lediglich eine passive Kooperation zwi- sehen dem Menschen 2 und dem Roboter 1 vorgesehen. Beide verrichten ihre
Arbeit unabhängig voneinander in einem Arbeitsraum bzw. an einem Arbeitsplatz ohne Schutzvorrichtungen wie z. B. einen Sicherheitszaun. Dies kann beim Bereitstellen eines schweren Bauteils 3 in einer Fertigungslinie einer Endmontage der Automobilindustrie der Fall sein. Der Roboter 1 holt das Bau- teil 3 von einer Lagerfläche und legt es an einem Montageplatz ab. Der
Mensch 2 ist hieran nicht beteiligt und kann anderweitig einer Arbeit nachgehen.
Um zu gewährleisten, dass es zu keiner Gefährdung des Menschen 2 während der Tätigkeit kommt, werden zwei Bereiche definiert: Vom Sicherheitsbereich wird der Arbeitsbereich des Menschen 2 umfasst, in dem sich der Mensch 2 gefahrlos bewegen kann und in dem die Anwesenheit des Roboters 1 nicht erlaubt ist. Der Roboter 1 darf sich nur im Gefahrenbereich aufhalten. Sobald der Mensch 2 den Gefahrenbereich betritt, wird die Bewegung des Roboters 1 unterbrochen und erst dann wieder aufgenommen, wenn der Mensch 2 diese verlassen hat. Außerdem wird die Bewegung des Roboters 1 gestoppt, wenn dieser die Grenzen des Gefahrenbereichs überschreitet und in den Arbeitsbereich des Menschen 2 eindringt. Der Gefahrenbereich ist in diesem Ausführungsbeispiel kleiner als ein Arbeitsbereich des Roboters 1 gewählt. Die Form der Bereiche kann statisch durch Angabe raumfest vorgegebener Punkte oder dynamisch durch eine Kopplung mit einem Robotermodell definiert werden. Im Gefahrenbereich selbst kann der Roboter 1 mit maximal möglicher Geschwindigkeit agieren. In der zweiten Kooperationsstufe können der Mensch 2 und der Roboter 1 auf einem sehr niedrigen Niveau zusammenarbeiten. Der Mensch 2 kann sich dem Roboter 1 bis auf eine vorgegebene Distanz nähern und kooperieren. Es ist jedoch ausgeschlossen, dass der Mensch 2 und der Roboter 1 physisch oder direkt miteinander arbeiten, d. h. es ist insbesondere kein direkter kör- perlicher Kontakt möglich, vielmehr wird eine räumliche Trennung eingehalten. Dies kann beispielsweise bei Montageaufgaben der Fall sein, bei denen der Roboter 1 das Bauteil 3 ortsfest fixiert und der Mensch 2 an dem Bauteil 3 Arbeiten vornimmt. Hierbei sollte die Geschwindigkeit des Roboters 1 so stark reduziert werden, dass keine unmittelbare Gefahr für den Menschen 2 besteht.
Zusätzlich zu dem schon beschriebenen Gefahrenbereich und dem Sicherheitsbereich wird auf dieser Kooperationsstufe ein Kooperationsbereich definiert. Die drei Bereiche sind im dargestellten Ausführungsbeispiel schalenförmig um den Roboter 1 aufgebaut. Im Kooperationsbereich können der Roboter 1 und der Mensch 2 gemeinsame Aufgaben verrichten. Wird durch einen Sensor der Mensch 2 oder ein anderes sicherheitsrelevantes Objekt im Kooperationsbereich detektiert, wird durch die Steuereinheit nach einem entsprechenden Signal der Auswerteeinheit die Geschwindigkeit des Roboters 1 so stark reduziert, dass keine ernsthafte Gefahr für den Menschen 2 besteht.
Wie in der Kooperationsstufe 1 kann die Form des Kooperationsbereichs statisch oder dynamisch sein, also insbesondere hinsichtlich Form, Ausdehnung bzw. Ort angepasst werden. Aufgrund des zusätzlichen Bereichs ist der Gefahrenbereich nun an den Roboter 1 gekoppelt und kann sich dynamisch mit einer aktuellen Pose des Roboters 1 verändern.
In der dritten Kooperationsstufe ist eine direkte Zusammenarbeit zwischen dem Roboter 1 und dem Menschen 2 vorgesehen, eine physische Interaktion, also ein gegenseitiges Berühren jedoch ausgeschlossen. Der Mensch 2 als Benutzer kann beispielsweise dem Roboter 1 durch Handbewegungen deutlich machen, dass dieser seien Bewegung stoppt oder aufnimmt. Hierfür ist typischerweise ein optischer Sensor an dem Roboter 1 oder im Arbeitsraum angebracht, wobei die Auswerteeinheit entsprechende Gesten des Benutzers auswertet und die Steuereinheit zum Ausführen entsprechender Steuerbefehle anleitet. In dieser Kooperationsstufe kann zum Beispiel eine Übergabe des Bauteils 3 von dem Roboter 1 an den Menschen 2 erfolgen. Hierbei signalisiert der Mensch 2 dem Roboter 1 über eine Geste seine Übernahmebereitschaft. Der Roboter 1 steuert dann auf eine offene Hand des Menschen 2 zu, bis der Mensch 2 den Gegenstand berührt. Durch das Aufbringen einer Kraft bestätigt der Mensch 2, dass das Objekt gegriffen ist und der Roboter 1 öffnet seinen am Roboterarm angebrachten Greifer.
Auf dieser Kooperationsstufe können drei oder vier wiederum schalenförmig um den Roboter 1 verlaufende Bereiche vorgesehen sein. Neben dem Sicherheitsbereich soll nun ein erster Kooperationsbereich existieren, in dem der Roboter 1 nur mit verminderter Geschwindigkeit operieren darf. In einem zweiten Kooperationsbereich, der auch als Übergabebereich bezeichnet wird, soll die beschriebene direkte Kooperation stattfinden und die Auswerteeinheit sowie die Steuereinheit ermöglichen nur in diesem Bereich eine
Gestenerkennung oder eine Erkennung von Handbewegungen. Wie zuvor beschrieben können die Bereiche wiederum statisch oder dynamisch ausgebildet sein. Die Form des Übergabebereichs kann an den Roboter 1 gekoppelt sein, so dass ein Annähern des Menschen 2 sofort registriert wird. Wie zuvor wird ein Gefahrenbereich definiert, in dem der Roboter 1 bei Eindringen des Menschen 2 sofort stoppt.
Schließlich kann in der vierten Kooperationsstufe eine direkte Zusammenarbeit mit physischer Interaktion zwischen dem Menschen 2 und dem Roboter 1 erreicht werden. Neben der Steuerung durch Gesten und Handbewegungen ist eine Führung des Roboters 1 mittels einer Kraft-Drehmoment-Regelung möglich. Beispielhaft wird diese Kooperationsstufe zum Positionieren von schweren Bauteilen 3 an einem nur umständlich oder schwer zugänglichen Montageplatz genutzt. Der Roboter 1 wartet in diesem Fall mit dem gegriffe- nen Bauteil 3 bis der Mensch 2 den ersten Kooperationsbereich betritt und den Roboter 1 durch Krafteinwirkung am Bauteil 3 oder am Greifer in die gewünschte Richtung führt. Der Roboter 1 trägt hierbei die Last und der Mensch 2 kann sich auf die Positionierung konzentrieren.
Der Bereichsaufbau der vierten Kooperationsstufe ist in dem dargestellten Ausführungsbeispiel wie der Aufbau der dritten Kooperationsstufe ausgestaltet.
Wie beschrieben werden somit verschiedene Kooperationsstufen und verschiedene Bereiche definiert, wobei die Roboterregelung bzw. die Robotersteuerung an die Kooperationsstufe und die Einteilung in einen der Bereiche angepasst wird. Es kann auch vorgesehen sein, dass die Regelung bei jeder Achse verschieden eingestellt wird. Mittels des vom Computerprogramm ausgeführten Algorithmus, der das beschriebene Verfahren durchführt, wenn das Computerprogramm auf einer Recheneinheit wie einem Computer bzw. der Auswerteeinheit/der Steuereinheit abläuft, kann eine bereichsbasierte und stufen basierte Regelung, wie eine bildbasierte, eine positionsbasierte, eine kraft basierte, eine drehmomentbasierte und bzw. oder eine hybride Regelung durchgeführt werden.
Beispielhaft sollen in den folgenden Tabellen die Konfiguration, mögliche Objekte und Ereignisse und entsprechende Regelungsstrategien dargestellt werden:
Tabelle 1 Bereichskonfiguration
ParameBeschreibung Wert Optionen
ter
Bereich-Konfiguration Haupt: X ML Node 1
Name Name des BeString z.B. Kooperation, Sicher, Gefährlich reichs etc.
Type Typ des BeString 1. „Static": Statischer Bereich reichs 2. „Dynamic": Dynamischer Bereich, der sich am Roboter 1 orientiert (Ausrichtung anhand der Roboterzelle).
3. "Dynamic_rot": Dynamischer Bereich, der sich am Roboter 1 orientiert (Ausrichtung anhand des Robotermodells).
Dimension
1. Wenn type = "static" Polygonfläche definiert durch min. 3 Punkte n_points Anzahl der Integer unbegrenzt
Punkte für das
Polygon
Point_i Punkt i des PolPoint3d Dreidimensionale Punktkoordinaygons i = ten (x, y, z) (meistens z = 0) 0...n points-1
2. Wenn type =„dyna- Quadratische Fläche, die sich aus dem Modell mic" oder„Dyna- des Roboters 1 ergibt
mic_rot"
p_min Minimaler OffPoint3d • Offset in Richtung -x, -y und -z set im Roboterkoordinatensystem
• Bei "Dynamic" bezieht es sich auf das Robotermodell ohne Gelenkwinkel "AI"
p_max Maximaler OffPoint3d • Offset in Richtung -x, -y und -z set im Roboterkoordinatensystem
• Bei "Dynamic" bezieht es sich auf das Robotermodell ohne Gelenkwinkel "AI"
Priority Priorität des Integer • -1: nur für Visualisierung, keine
Bereichs
Prüfung z.B. Kamerasichtfeld.
• N Anzahl der Prioritätsstufen ist frei wählbar
- "0" niedrigste Priorität
- "N" höchste Prioritätsstufe z. B. Gefahrenbereich Tabelle 2 Objekte/Ereignisse in den Bereichen
ParameBeschreibung Wert Optionen
ter
Bereich-Objekte Haupt: X ML Node 2
n_object Anzahl n der Integer unbegrenzt
s möglichen Objekte im Bereich
Object_i Objekt i XML e.g. <object_0> .... </object_0> i = 0 .. Object i Node
-1
Name Name des ObString • z. B. Mensch 2, Roboter 1 usw.
jekts • andere dynamische Objekte
• alle implementierten Typen der Zustandsmaschine sollten definiert werden
Presence Anweisung, String • Wrong: nein, das Objekt darf wenn sich das sich nicht im Bereich befinden. Objekt im Be• Correct: ja, das Objekt darf sich reich befindet
in dem Bereich befinden.
Bereich-Ereignis Haupt: X ML Node 3
n_events Anzahl der Integer unbegrenzt
möglichen Ereignissen in
dem Bereich
Event_i Event i XML e.g. <event_0> .... </event_0> i = 0 .. Event i - Node
1
Name Event Name String • alle implementierten
Klassifikatoren der Zustandsmaschine sollten definiert werden (Events)
• z. B. "part", "covered" usw.
Presence Anweisung, String • Wrong: nein, das Ereignis darf wenn das Event nicht in dem Bereich stattfinden. in dem Bereich • Correct: ja, das Ereignis darf in stattfindet
dem Bereich stattfinden. Tabelle 3 Regelungsstrategie Bereiche
Figure imgf000017_0001
Wie in Figur 2 in einer schematischen dreidimensionalen Ansicht einer Klasseneinteilung samt zugeordneter Ansteuerungsmöglichkeiten dargestellt, wird also durch einen Sensor, beispielsweise eine stereoskopische Kamera, ein sicherheitsrelevantes Merkmal wie ein Abstand zwischen dem Menschen 2 und dem Roboter 1 ermittelt, und eine entsprechende Einteilung in verschiedene Klassen bzw. Bereiche anhand dieses sicherheitsrelevanten Merkmals vorgenommen. Ferner wird durch die Auswerteeinheit neben der Bereichseinteilung auch eine Einteilung je nach Kooperationsstufe vorgenommen und im Zusammenspiel zwischen der Auswerteeinheit und der Steuereinheit eine entsprechende Regelung durch Ansteuerung der Roboterachsen erreicht. Dies ist in Figur 2 schematisch durch die beeinflussbaren drei translatorischen und drei rotatorischen Freiheitsgrade dargestellt, anhand derer die Trajektorie des Roboters 1 definiert wird. Wiederkehrende Merkmale sind in dieser Figur wie auch in den weiteren Figuren mit identischen Bezugszeichen versehen.
Figur 3 zeigt eine tabellarische Übersicht von Sicherheitsfunktionen in jeder der Kooperationsstufen. So soll beispielsweise ein Stoppen des Roboters 1 in jeder der Kooperationsstufen möglich sein. Sicherheitsfunktionen, die in jeder Kooperationsstufe vorgesehen sind, sind mit einem Haken versehen, während ausgeschlossene Sicherheitsfunktionen der jeweiligen Kooperationsstufe mit einem Kreuz gekennzeichnet sind. Optionale Funktionen sind durch den Be- griff "optional" in der Tabelle gekennzeichnet.
So kann es weiter vorgesehen sein, fehlerhafte Vorkommnisse zu detektieren, aber je nach Kooperationsstufe unterschiedlich zu handhaben. Bei einer ka- merabasierten Überwachung von Arbeitsräumen können bestimmte Szenen und Situationen von einer Bildverarbeitungssoftware fehlerhaft interpretiert werden. Eine Häufigkeit derartiger Vorkommnisse und eine Sensitivität sind sehr stark von der verwendeten Hardware bzw. dem genutzten Algorithmus abhängig. Auch bei Verwenden mehrerer Kameras können Verdeckungsfehler, also Fälle, in denen ein im Arbeitsraum befindliches Objekt von einem anderen Objekt verdeckt und daher nicht detektiert wird, nicht vollkommen ausgeschlossen werden.
Insgesamt sollen bei fehlerhaften Ereignissen im Rahmen dieser Schrift vier Fälle unterschieden werden, die sich in zwei Klassen einteilen lassen: ein bislang detektiertes Objekt kann verlorengehen, da es mit einem anderen Objekt vereinigt wurde oder verdeckt ist, und ein neues, bislang nicht detektiertes Objekt kann auftauchen, das nun getrennt von einem anderen Objekt auftaucht oder nicht mehr verdeckt ist. Die Fehlerfälle "Verdeckung" und Verei- nigen treten dann auf, wenn ein Objekt im Arbeitsraum nicht mehr auffindbar ist, das Objekt im aktuellen Zyklus also nicht mehr vom Sensor erkannt wird. In den meisten Fällen hat das Objekt das Sichtfeld des Sensors verlassen, in einigen Fällen kommt es aber zu den genannten Fehlerfällen, die aufgrund der Lage der Objekte zueinander oder durch eine falsche Interpretation von Ka- merabildern oder anderen Aufnahmen zustande kommen.
Bei der Vereinigung befinden sich im Arbeitsraum zwei Objekte, deren Abstand zueinander sehr klein ist. Der Erkennungsalgorithmus kann diese nicht voneinander unterscheiden und erfasst die gesamte Bildregion als ein Objekt. Beispielsweise kann sich im Greifer des Roboters 1 ein schweres Bauteil 3 befinden, an dem etwas montiert werden soll. Der Mensch 2 nähert sich dem Bauteil 3 oder dem Roboter 1 so stark an, dass von der Kamera nur noch ein einziges Objekt erkannt werden kann. Alternativ kann sich der Mensch 2 auch auf einen Stuhl setzen und in der Kameraaufnahme fusionieren der Mensch 2 und der Stuhl zu einem einzigen Objekt. Bei der Verdeckung wird ein kleineres Objekt von einem größeren Objekt verdeckt, was voraussetzt, dass sich beide in einer Flucht zur Kamera befinden. Das kleinere Objekt muss weiter von der Kamera entfernt sein als das größere Objekt. Aufgrund der Perspektive kann die Kamera bzw. der Algorithmus das zweite Objekt im Bild bzw. in der Aufnahme nicht erkennen.
Beispielsweise kann eine Kiste mit Bauteilen 3 im Arbeitsraum stehen. Der Mensch 2 verdeckt diese mit seinem gesamten Körper, so dass die Kiste in der Aufnahme nicht mehr auffindbar ist. Es kann aber auch ein kleiner Teil des Roboters 1 sich im Blickfeld der Kamera befinden, beispielsweise der Greifer.
Bei der Montage oder Übergabe von Bauteilen 3 wird dieser vom Menschen 2 verdeckt. Im Bild der Kamera verschwindet das kleine Objekt hinter dem größeren Objekt. Bei der Fehlerklasse "Neues Objekt" treten die beiden Fehlerfälle "Trennung" und "Abdeckung" dann auf, wenn der Algorithmus ein neues Objekt im Arbeitsraum erkannt hat. Treffen diese beiden Fehlerfälle nicht zu, hat das neue Objekt den Arbeitsraum von außen betreten. Bei der Trennung erfasste der Algorithmus bislang zwei Objekte als ein einziges Objekt, da deren Abstand zueinander zu gering ist. Nachdem sich beide Objekte voneinander entfernt haben, werden diese als zwei separate Objekte in der Aufnahme erkannt. Beispielsweise kann der Mensch 2 an dem Bauteil 3 montieren, das vom Greifer des Roboters 1 gehalten wird. Aufgrund der ge- ringen Distanz wird nur ein einziges Objekte erkannt. Nach Abschluss der Arbeit entfernt sich der Mensch 2 von dem Roboter 1, so dass nun ein neues Objekt i der Aufnahme erkannt wird. Der Mensch 2 kann aber auch nach getaner Arbeit von einem Stuhl aufstehen, wodurch der Algorithmus nun ein zweites Objekt an einer Stelle erkennt, an der zuvor der Mensch 2 gesessen hat.
Bei der "Abdeckung" kann der Algorithmus aufgrund der Perspektive ein verdecktes Objekt in der Aufnahme nicht erkennen. Durch die Bewegung des verdeckenden Objekts wird dieses sichtbar. Der Algorithmus erfasst jetzt das bislang abgedeckte Objekt. So kann der Mensch 2 das Bauteil 3 am Greifer des
Roboters 1 montieren und dabei den sichtbaren Teil des Roboters 1 verde- cken. Bei Beendigung der Arbeit hebt er die Verdeckung wieder auf und der Greifer des Roboters 1 wird in der Aufnahme erkannt.
Für die Registrierung der dargestellten vier Fehlerfälle im laufenden Betrieb wird jeweils ein separater Klassifikator im Computerprogramm verwendet. Hierfür speichert der Algorithmus Daten eines Objekts über mehrere Zyklen in einem Ringspeicher ab. Ist das Maximum des Ringspeichers erreicht, der typischerweise Teil der Auswerteeinheit ist, wird der zeitlich älteste Eintrag automatisch gelöscht. Jedes Objekt mit einer eigenen Identifikationsnummer wird in einem Ringspeicher vermerkt. Figur 4 zeigt schematisch einen derartigen Klassifikator als Ablaufdiagramm.
Die in Figur 3 unter "fehlerhafte Vorkommnisse" vermerkten Ereignisse sollen wie dargestellt also in jeder der Kooperationsstufen vorkommen können. Zudem besteht die Möglichkeit, die Roboterposition oder die Robotergeschwindigkeit zu überwachen bzw. zu kontrollieren, ein optisches System kann in Bereitschaft verbleiben bzw. Oberkörper oder Hand des Menschen 2 überwachen oder eine Kraft-Drehmomentsensorik kann überwacht bzw. kontrolliert werden.
Zusammenfassend zeigt Figur 3 die benötigten Sicherheitsfunktionen gegenüber den beschriebenen vier Kooperationsstufen. Die Sicherheitsanforderungen ergeben sich dabei aus der Art der Zusammenarbeit zwischen dem Menschen 2 und dem Roboter 1. Je näher der Mensch 2 und der Roboter 1 zusammenarbeiten desto detaillierter müssen die Informationen der Umgebung sein, in welcher der MRK-Prozess stattfindet.
Die wichtigste Funktion ist die Sicherheits-Stopp-Funktion, diese Funktion wird in allen Kooperationsleveln bzw. Kooperationsstufen benötigt. Wenn der Mensch 2 den Gefahrenbereich des Roboters 1 betritt, soll dieser sofort gestoppt werden. Die Sicherheitsfunktion soll prüfen, ob die Anwesenheit des Menschen 2 oder des Roboters 1 in der jeweiligen Bereich erlaubt ist. Weiterhin wird der Abstand zwischen dem Roboter 1 und dem Menschen 2 berechnet. Die zweite Sicherheitsfunktion prüft, ob ein Fehlerfall vorliegt oder nicht. Ist dies der Fall, wird verifiziert, ob dieser in dem jeweiligen Bereich zugelassen ist oder nicht. Prinzipiell sind die Fehlerfälle zu keinem Zeitpunkt erwünscht, können aber in der dritten und der vierten Kooperationsstufe aufgrund der Nähe zwischen dem Menschen 2 und dem Roboter 1 auftreten.
Bei der Sicherheitsfunktion„Regelung der Roboterposition" wird die Roboterposition zu jedem Zeitpunkt in allen Kooperationsstufen überwacht. Die Regelung/Beeinflussung wird nur dann benötigt, wenn eine direkte Kooperation stattfindet, also in der dritten und der vierten Kooperationsstufe. Optional kann die Position auch in der zweiten Kooperationsstufe geregelt werden, wenn der Bedarf da ist.
Bei der Sicherheitsfunktion„Robotergeschwindigkeit" wird die Roboterge- schwindigkeit in der zweiten, dritten und vierten Kooperationsstufe je nach
Abstand zwischen dem Roboter 1 und dem Menschen 2 überwacht bzw. geregelt. Ist der Mensch 2 nah, verfährt der Roboter 1 langsam. Ist der Mensch 2 weiter entfernt, fährt der Roboter 1 mit voller Geschwindigkeit. In der ersten Kooperationsstufe sollte die Geschwindigkeit überwacht werden, muss aber nicht geregelt werden, weil der Mensch 2 dem Roboter 1 nicht zu nahe kommen kann.
In der Funktion„Nah-Überwachung" wird angegeben, wie hoch die Informationsdichte des Menschen 2 im Nahbereich in den einzelnen Kooperationsstu- fen sein muss. In der ersten Kooperationsstufe sind keine Informationen im
Nahbereich notwendig, weil es zu keiner Kooperation kommen soll. In der vierten Kooperationsstufe ist dagegen eine hohe Dichte erforderlich. Es wird typischerweise die Position von Kopf, Schultern und Hand des Menschen 2 benötigt.
Bei der Sicherheitsfunktion„Registrierung der Kräfte und Moment" werden mithilfe von Sensoren anliegende Kräfte und Momente gemessen. Diese können Aufschluss über eine Kollision zwischen dem Roboter 1 und dem Menschen 2 geben. Je nach Kooperationsstufe ist eine Überwachung und Regelung erlaubt. Die Funktion wird hauptsächlich für die dritte und die vierte Kooperationsstufe benötigt, wo eine physische Interaktion erwartet wird. In Figur 5 ist in einer schematischen Ansicht der Roboter 1 innerhalb des Arbeitsraums 4 dargestellt. Der Arbeitsraum 4 wird über eine stereoskopische Kamera 5 als Sensor überwacht, die räumlich getrennt von dem Roboter 1 angeordnet ist und sich oberhalb des Roboterfußes befindet sowie mit einer Auswerteeinheit 6 und einer Steuereinheit 7 verbunden ist. Die Auswerteeinheit 6 und die Steuereinheit 7 sind in dem dargestellten Ausführungsbeispiel in einem einzigen Gerät, einem Computer, auf dem auch das Computerprogramm zum Durchführen des Verfahrens der Mensch-Roboter-Kooperation abläuft, verwirklicht. Der Arbeitsraum 4 wird in gleich große virtuelle Teilflächen eingeteilt. In unmittelbarer Umgebung des Roboters 1 wird der Gefahrenbereich 8 definiert und durch eine senkrechte Schraffur gekennzeichnet, während ein angrenzender Kooperationsbereich 9 durch eine waagrechte Schraffur markiert ist. Der Sicherheitsbereich 10, in dem sich der Mensch 2 aufhalten darf, ist nicht schraffiert dargestellt.
Lediglich in den Ausführungsbeispielen offenbarte Merkmale der verschiedenen Ausführungsformen können miteinander kombiniert und einzeln beansprucht werden.

Claims

Patentansprüche
1. Verfahren zur Mensch-Roboter-Kooperation bei dem durch mindestens einen Sensor (5) mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich eines Roboters (1) bestimmt wird, die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt wird, wobei eine erste Klasse einen Gefahrenbereich (8), in dem kein Objekt bei einer Bewegung des Roboters (1) zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich (10) kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, in einer Steuereinheit (7) eine durchzuführende Aufgabe des Roboters (1) definiert wird sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt wird, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und eines Benutzers (2) an unterschiedlichen Bauteilen (3) umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an einem gemeinsam bearbeiteten Bauteil (3) umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) ohne gegenseitige physische Berührung des Roboters (1) und des Benutzers (2) umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) mit gegenseitiger physischer Berührung umfasst, wobei der Roboter (1) durch die Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen angesteuert wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens drei möglichen Klassen zugehörig eingeteilt wird, wobei eine dritte Klasse einen Kooperationsbereich (9) definiert, in der sich zu bestimmten Zeitpunkten ein Objekt befinden darf.
3. Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass der Überwachungsbereich von der Auswerteeinheit (6) dynamisch in Abhängigkeit von von dem Sensor (5) detektierten Signalen des Roboters (1) und des Objekts an einen aktuellen Arbeitsbereich des Roboters (1) angepasst wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die sicherheitsrelevante Information einen Abstand und/oder einen Winkel zwischen dem Roboter (1) und dem Objekt aufweist.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information den Roboter (1) hinsichtlich einer translatorischen Bewegung in mindestens einem Freiheitsgrad, einer rotatorischen Bewegung in mindestens einem Freiheitsgrad, einer Geschwindigkeit und/oder einer Beschleunigung der Bewegung ansteuert.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anpassung des Überwachungsbereichs hinsichtlich Form, Ausdehnung und/oder Ort durchgeführt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von der Einteilung eine klassenspezifische und stufenspezifische bildbasierte, positionsbasierte, kraftbasiert und/oder drehmomentbasierte Ansteuerung durchgeführt wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die sicherheitsrelevante Information durch einen optischen Sensor, einen induktiven Sensor, einen kapazitiven Sensor, einen Kraftsensor und/oder einen Drehmomentsensor detektiert wird, wobei der optische Sensor vorzugsweise als stereoskopische Kamera ausgebildet wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass von dem als stereoskopische Kamera ausgebildeten Sensor (5) mehrere Aufnahmen des Überwachungsbereichs aufgenommen werden, wobei jede der Aufnahmen in einem Ringspeicher der Auswerteeinheit (6) abgespeichert wird sowie in jeder der Aufnahmen durch die Auswerteeinheit (6) das sicherheitsrelevante Merkmal ermittelt wird, wobei durch einen paarweisen Vergleich zu unterschiedlichen Zeitpunkten erfasster Aufnahmen das im Arbeitsbereich befindliche Objekt nachverfolgt wird.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass ein auf einer Aufnahme im Arbeitsbereich befindliches Objekt, das auf einer nachfolgenden Aufnahme nicht mehr sichtbar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit (6) überprüft wird, ob es sich hinter oder auf einem der weiteren Objekte befindet.
11. Verfahren nach Anspruch 9 oder Anspruch 10, dadurch gekennzeichnet, dass ein auf einer Aufnahme im Arbeitsbereich bislang nicht be- findliches Objekt, das auf einer nachfolgenden Aufnahme sichtbar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit (6) überprüft wird, ob es sich auf der vorhergehenden Aufnahme hinter oder auf einem der weiteren Objekte befand.
Vorrichtung zur Mensch-Roboter-Kooperation, mit einem Sensor (5), der eingerichtet ist, mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters (1) zu bestimmen, einer Auswerteeinheit (6), die ausgebildet ist, die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig einzuteilen, wobei eine erste Klasse einen Gefahrenbereich (8), in dem kein Objekt bei einer Bewegung des Roboters (1) zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich (10) kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, und eine Steuereinheit (7), die eingerichtet ist, eine durchzuführende Aufgabe des Roboters (1) zu definieren sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig einzuteilen, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und eines Benutzers (2) an unterschiedlichen Bauteilen (3) umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an einem gemeinsam bearbeiteten Bauteil (3) umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) ohne gegenseitige physische Berührung des Roboters (1) und des Benutzers (2) umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) mit gegenseitiger physischer Berührung umfasst, und den Roboter (1) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen anzusteuern.
PCT/EP2017/071470 2016-08-31 2017-08-25 Verfahren und vorrichtung zur mensch-roboter kooperation WO2018041743A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016216441.4A DE102016216441B3 (de) 2016-08-31 2016-08-31 Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
DE102016216441.4 2016-08-31

Publications (1)

Publication Number Publication Date
WO2018041743A1 true WO2018041743A1 (de) 2018-03-08

Family

ID=59829339

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/071470 WO2018041743A1 (de) 2016-08-31 2017-08-25 Verfahren und vorrichtung zur mensch-roboter kooperation

Country Status (2)

Country Link
DE (1) DE102016216441B3 (de)
WO (1) WO2018041743A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846891A (zh) * 2018-05-30 2018-11-20 广东省智能制造研究所 一种基于三维骨架检测的人机安全协作方法
CN111464967A (zh) * 2019-01-22 2020-07-28 恩格尔奥地利有限公司 用于调整安全区域的方法
CN112363470A (zh) * 2020-11-05 2021-02-12 苏州工业园区卡鲁生产技术研究院 用户协作型机器人控制系统
CN112665552A (zh) * 2019-10-15 2021-04-16 西门子股份公司 用于监测工作环境的方法和监测装置
CN114219220A (zh) * 2021-11-18 2022-03-22 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 人机工效评估方法、系统、计算机设备和存储介质
CN116734861A (zh) * 2023-07-25 2023-09-12 深圳市神州云海智能科技有限公司 机器人调度方法、系统、设备以及路径拼接方法、机器人

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017113392B4 (de) * 2017-06-19 2021-06-10 Sick Ag Vorrichtung zur Sicherheitssteuerung einer Maschine
DE102017216863B3 (de) 2017-09-22 2018-12-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Robotersystem zum Anpassen eines Robotereinsatzes an einen Arbeitsprozess
DE102017221348A1 (de) * 2017-11-29 2019-05-29 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung von Zeitdaten für ein Mensch-Roboter-Kooperations-System
DE102019001373B4 (de) * 2019-02-27 2020-11-19 Florian Fried Verfahren zum berührungslosen Führen eines Robotersystems in einer Mensch-Roboter-Kollaboration (MRK)
DE102020114012A1 (de) 2020-05-26 2021-12-02 Bayerische Motoren Werke Aktiengesellschaft Greifer für eine Robotervorrichtung sowie Verfahren zum Betreiben eines Greifers
CN112936268A (zh) * 2021-01-30 2021-06-11 埃夫特智能装备股份有限公司 一种协作机器人安全控制系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010017857A1 (de) 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE202013104264U1 (de) * 2013-09-18 2015-01-09 Daimler Ag Arbeitsstation
DE102014106210A1 (de) * 2014-04-14 2015-10-15 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Probabilistische Personennachführung unter Verwendung der Mehr- Ansichts-Vereinigung

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005003827B4 (de) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010017857A1 (de) 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
DE202013104264U1 (de) * 2013-09-18 2015-01-09 Daimler Ag Arbeitsstation
DE102014106210A1 (de) * 2014-04-14 2015-10-15 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Probabilistische Personennachführung unter Verwendung der Mehr- Ansichts-Vereinigung

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846891A (zh) * 2018-05-30 2018-11-20 广东省智能制造研究所 一种基于三维骨架检测的人机安全协作方法
CN108846891B (zh) * 2018-05-30 2023-04-28 广东省智能制造研究所 一种基于三维骨架检测的人机安全协作方法
CN111464967A (zh) * 2019-01-22 2020-07-28 恩格尔奥地利有限公司 用于调整安全区域的方法
CN111464967B (zh) * 2019-01-22 2022-09-13 恩格尔奥地利有限公司 用于调整安全区域的方法
CN112665552A (zh) * 2019-10-15 2021-04-16 西门子股份公司 用于监测工作环境的方法和监测装置
US11660755B2 (en) 2019-10-15 2023-05-30 Siemens Aktiengesellschaft Apparatus and method for monitoring a working environment
CN112363470A (zh) * 2020-11-05 2021-02-12 苏州工业园区卡鲁生产技术研究院 用户协作型机器人控制系统
CN114219220A (zh) * 2021-11-18 2022-03-22 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 人机工效评估方法、系统、计算机设备和存储介质
CN116734861A (zh) * 2023-07-25 2023-09-12 深圳市神州云海智能科技有限公司 机器人调度方法、系统、设备以及路径拼接方法、机器人

Also Published As

Publication number Publication date
DE102016216441B3 (de) 2018-01-04

Similar Documents

Publication Publication Date Title
DE102016216441B3 (de) Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
DE102018121388B4 (de) Robotersystem
EP2838698B2 (de) Roboteranordnung und verfahren zum steuern eines roboters
EP2825812B1 (de) Verfahren und vorrichtung zum absichern eines gefährlichen arbeitsbereichs einer automatisiert arbeitenden maschine
EP2989369B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
DE10251584B4 (de) Verfahren und Vorrichtung zur Überwachung eines Erfassungsbereiches
EP3011225B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
DE102015012232A1 (de) Mit Menschen kollaborierendes Robotersystem
DE102012212754B4 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102017008248A1 (de) Mit Menschen kollaborativer Roboter
DE10324627A1 (de) Arbeitsraumüberwachung für automatisiert arbeitende Maschinen
DE102018118265B4 (de) Verfahren und Überwachungssystem zum Absichern einer Maschine
EP1367314A2 (de) Vorrichtung zur Überwachung eines Erfassungsbereiches an einem Arbeitsmittel
DE102012007242A1 (de) Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation
DE102010048369A1 (de) Verfahren und Vorrichtung zur Sicherheitsüberwachung eines Manipulators
DE102017111885B4 (de) Verfahren und System zum Überwachen einer Maschine
DE102018117829A1 (de) Steuereinheit für Gelenkroboter
DE102020103857B4 (de) Kraftbegrenzung bei Kollision eines Robotermanipulators
DE102017202004A1 (de) Vorrichtung zur Absicherung eines maschinell gesteuerten Handhabungsgeräts und Verfahren
EP3052275A2 (de) Mrk planungstechnologie
EP3650740A1 (de) Sicherheitssystem und verfahren zum überwachen einer maschine
WO2015049202A2 (de) Mrk planungs- und überwachungstechnologie
DE10324628A1 (de) Steuerverfahren für einen Roboter
EP3974125A1 (de) Verfahren und vorrichtung zum steuern eines roboters

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17764525

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17764525

Country of ref document: EP

Kind code of ref document: A1