DE102016216441B3 - Verfahren und Vorrichtung zur Mensch-Roboter Kooperation - Google Patents

Verfahren und Vorrichtung zur Mensch-Roboter Kooperation Download PDF

Info

Publication number
DE102016216441B3
DE102016216441B3 DE102016216441.4A DE102016216441A DE102016216441B3 DE 102016216441 B3 DE102016216441 B3 DE 102016216441B3 DE 102016216441 A DE102016216441 A DE 102016216441A DE 102016216441 B3 DE102016216441 B3 DE 102016216441B3
Authority
DE
Germany
Prior art keywords
robot
cooperation
area
safety
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016216441.4A
Other languages
English (en)
Inventor
Mohamad Bdiwi
Sebastian Krusche
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102016216441.4A priority Critical patent/DE102016216441B3/de
Priority to PCT/EP2017/071470 priority patent/WO2018041743A1/de
Application granted granted Critical
Publication of DE102016216441B3 publication Critical patent/DE102016216441B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40546Motion of object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40555Orientation and distance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Mensch-Maschine-Kooperation, bei dem durch mindestens einen Sensor mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters (1) bestimmt wird und die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt wird. In einer Steuereinheit (7) wird eine durchzuführende Aufgabe des Roboters (1) definiert sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt. Der Roboter (1) wird durch eine Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen in eine der Kooperationsstufen angesteuert.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Mensch-Roboter-Kooperation (MRK).
  • Eine große Produktvielfalt und steigende Fertigungszahlen erfordern flexible bzw. effektiv arbeitende Produktionsketten. Um diesen Anforderungen gerecht zu werden, wird verstärkt versucht, Kollaborationen zwischen Mensch und Roboter in Herstellungsprozesse zu integrieren.
  • Aus dem Stand der Technik sind hierbei Systeme bekannt, bei denen Leichtbauroboter mit taktilen Sensoren oder Drehmomentsensoren in ihren Gelenken zum Einsatz kommen. Bei einer Kollision wird die Bewegung derartiger Roboter gestoppt. Nachteilig daran ist, dass der Roboter nur mit einer vergleichsweise geringen Geschwindigkeit arbeitet.
  • Außerdem ist bekannt, bildgebende Sensoren zu installieren, in deren Blickfeld der Roboter angeordnet ist. Aus der Druckschrift DE 10 2010 017 857 A1 ist beispielsweise eine Sicherheitsvorrichtung bekannt, bei der ein Arbeitsbereich des Roboters durch Kameras überwacht wird. Eine vollständige Erfassung des Roboters ist jedoch oftmals nicht in allen Posen möglich bzw. Objekte können sich auch außerhalb eines überwachten Bereichs befinden oder verdeckt sein.
  • DE 10 2005 003 827 A1 betrifft eine Vorrichtung und ein Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz.
  • Eine Arbeitsstation mit einem Industrieroboter ist in DE 20 2013 104 264 U1 offenbart.
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die genannten Nachteile zu überwinden, also ein Verfahren und eine Vorrichtung zur Mensch-Roboter-Kooperation vorzuschlagen, mittels derer eine Betriebssicherheit erhöht wird und eine zuverlässige Anpassung an detektierte Umgebungsbedingungen effizient erreicht wird.
  • Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren nach Anspruch 1 und eine Vorrichtung nach Anspruch 12. Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen beschrieben.
  • Bei einem Verfahren zur Mensch-Roboter-Kooperation wird durch mindestens einen Sensor mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters bestimmt. Die sicherheitsrelevante Information wird durch eine Auswerteeinheit als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt, wobei eine erste Klasse einen Gefahrenbereich, in dem kein Objekt bei einer Bewegung des Roboters zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich kennzeichnet, in dem sich jederzeit ein Objekt befinden darf. In einer Steuereinheit wird eine durchzuführende Aufgabe des Roboters definiert sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und eines Benutzers an unterschiedlichen Bauteilen umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und des Benutzers an einem gemeinsam bearbeiteten Bauteil umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil ohne gegenseitige physische Berührung des Roboters und des Benutzers umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil mit gegenseitiger physischer Berührung umfasst. Der Roboter wird durch die Steuereinheit in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen angesteuert.
  • Mit dem beschriebenen Verfahren wird eine Produktivität der Mensch-Roboter-Kooperation sowie eine Betriebssicherheit erhöht, indem eine klassenabhängige und kooperationsstufenabhängige Regelungsstruktur bzw. Steuerungsstruktur verwendet wird. Durch das Vorsehen mehrerer Klassen, die je nach Gefährdungsgrad des menschlichen Benutzers, der auch das im Überwachungsbereich detektierte Objekt sein kann, eine unterschiedliche Ansteuerung des Roboters nach sich ziehen, wird eine Gefährdung des Menschen bereits minimiert. Indem dies jedoch gekoppelt wird mit einer Berücksichtigung der durchzuführenden Aufgabe, kann die Betriebssicherheit weiter verbessert und die Effizienz des Verfahrens erhöht werden, da eine der jeweiligen Situation angepasste Ansteuerung des Roboters erfolgt. Hierdurch wird ein kooperativer Arbeitsplatz, d. h. ein Bereich, in dem ein Mensch als Bedienperson und mindestens ein Roboter gleichzeitig tätig sind, mit erhöhter Sicherheit durch eine adaptive Steuerung bzw. Regelung des Roboters geschaffen, so dass Arbeitsergebnisse zwischen Mensch und Maschine ausgetauscht bzw. Arbeitsschritte gemeinsam erledigt werden können.
  • Der Überwachungsbereich ist typischerweise mit dem Arbeitsbereich des Roboters identisch, d. h. er umfasst den Bereich den der Roboter bei vollständig ausgestrecktem Roboterarm erreichen kann. Es kann jedoch auch vorgesehen sein, den Überwachungsbereich geringfügig größer als den Arbeitsbereich zu wählen, um auch eventuell in den Überwachungsbereich eintretende Objekte frühzeitig zu definieren. Vorzugsweise ist der Überwachungsbereich hierzu in allen Richtungen 1 m größer als der Arbeitsbereich des Roboters gewählt.
  • Der Roboter kann als Industrieroboter mit sechs Achsen, vorzugsweise als Kollaborationsroboter oder als Leichtbauroboter, ausgestaltet sein. Im Rahmen dieser Schrift sollen als ”Kollaborationsroboter” diejenigen Robotertypen verstanden werden, die direkt für MRK-Applikationen entwickelt wurden. Sie erfüllen alle Ansprüche der gelten Vorschrift. Von Grund auf sind es Leichtbauroboter mit zusätzlichen Sicherheitsfunktionen, die es einem erlauben, den Roboter in direkter Gegenwart zum Menschen zu verfahren. Die Kraft, die bei einem Einschlag auf den Menschen wirkt, sollte so gering wie möglich sein, damit keine schweren Verletzungen entstehen. Die Konstruktion ist leichter ausgelegt, damit die Antriebskraft nicht so hoch sein muss und die Masse schneller gestoppt werden kann.
  • Als ”Leichtbauroboter” sollen im Rahmen dieser Schrift Roboter verstanden werden, die für eine niedrigere Traglast ausgelegt sind und eine geringere Reichweite als Kollaborationsroboter haben. Ihre gesamte Konstruktion ist leichter ausgelegt, weil keine so hohe Steifigkeit erforderlich ist.
  • Es kann vorgesehen sein, dass die sicherheitsrelevante Information durch die Auswerteeinheit als einer von mindestens drei möglichen Klassen zugehörig eingeteilt wird, wobei die dritte Klasse einen Kooperationsbereich definiert, in der sich zu bestimmten Zeitpunkten ein Objekt befinden darf. Typischerweise ist die dritte Klasse in der räumlichen Abfolge zwischen der ersten Klasse und der zweiten Klasse angeordnet und dient einer feineren Unterteilung und präziseren Steuerung des Roboters.
  • Der Überwachungsbereich des Roboters kann von der Auswerteeinheit dynamisch in Abhängigkeit von von dem Sensor detektierten Signalen des Roboters und des Objekts an einen aktuellen Arbeitsbereich des Roboters angepasst werden, um flexibel auf verschiedene Vorkommnisse reagieren zu können und nur den jeweils relevanten Bereich zu überwachen.
  • Typischerweise ist die sicherheitsrelevante Information ein Abstand und bzw. oder ein Winkel zwischen dem Roboter und dem Objekt bzw. umfasst diese Maße. Diese Maße sind in der Regel einfach zu bestimmen und erlauben eine zuverlässige Abschätzung, ob der Roboter das Objekt erreichen und somit potentiell schädigen kann.
  • Die Steuereinheit ausgebildet sein, den Roboter in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information hinsichtlich einer translatorischen Bewegung in mindestens einem Freiheitsgrad, einer rotatorischen Bewegung in mindestens einem Freiheitsgrad, einer Geschwindigkeit und bzw. oder einer Beschleunigung der Bewegung anzusteuern. Durch Ändern einer Bewegungstrajektorie bedingt durch eine entsprechende Ansteuerung zum Durchführen translatorischer bzw. rotatorischer Bewegungen kann der Roboter bzw. der Roboterarm dem Objekt ausweichen bzw. eine Kollision vermeiden oder zumindest mit verringerter Geschwindigkeit durchführen.
  • Die Anpassung des Überwachungsbereichs wird vorzugsweise hinsichtlich seiner Form, Ausdehnung und bzw. oder seines Orts durchgeführt, um möglichst variabel auf verschiedene Zustände reagieren zu können. Die Anpassung des Überwachungsbereichs kann hierbei auch in Abhängigkeit von der Geschwindigkeit, der Position, der Beschleunigung, des Bewegungsverhaltens und bzw. oder der Trajektorie des Roboters vorgenommen werden.
  • Typischerweise ist der Sensor räumlich getrennt von dem Roboter angeordnet und unabhängig von diesem bewegbar, so dass eine unabhängige Kontrolle des Überwachungsbereichs losgelöst vom Roboter möglich ist.
  • In Abhängigkeit von der Einteilung wird typischerweise eine klassenspezifische und bzw. oder stufenspezifische bildbasierte, positionsbasierte, kraftbasierte und bzw. oder drehmomentbasierte Ansteuerung durchgeführt. Je nach Art der detektierten sicherheitsrelevanten Information kann somit die passende Anpassung durchgeführt werden.
  • Es kann vorgesehen sein, die sicherheitsrelevante Information durch einen optischen Sensor, einen induktiven Sensor, einen kapazitiven Sensor, einen thermischen Sensor, einen Kraftsensor und bzw. oder einen Drehmomentsensor zu detektieren. Es können natürlich auch Mischtypen der genannten Sensoren verwendet werden, beispielsweise ein kapazitiv arbeitender Kraftsensor. Der optische Sensor ist vorzugsweise als stereoskopische Kamera bzw. als stereoskopisches Kamerasystem mit mehreren Kameras ausgebildet, um dreidimensionale Ortsinformationen in effizienter Weise erhalten zu können.
  • Insbesondere der als stereoskopische Kamera ausgebildete Sensor kann mehrere Aufnahmen des Überwachungsbereichs aufnehmen, wobei jede der Aufnahmen in einem Ringspeicher der Auswerteeinheit abgespeichert wird sowie in jeder der Aufnahmen durch die Auswerteeinheit das sicherheitsrelevante Merkmale, also insbesondere der Abstand und bzw. oder der Winkel, zwischen dem Roboter und einem im Arbeitsbereich des Roboters befindlichen Objekts ermittelt wird. Durch einen paarweisen Vergleich zu unterschiedlichen Zeitpunkten erfasster Aufnahmen kann das im Arbeitsbereich befindliche Objekt nachverfolgt werden. Durch eine zeitliche Verfolgung von Objekten können diese zuverlässiger erfasst werden und einfacher Vorhersagen hinsichtlich potentieller zukünftiger Gefährdungen getroffen werden.
  • Ein auf einer Aufnahme befindliches Objekt, das auf einer nachfolgenden Aufnahme nicht mehr sichtbar ist, kann durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und eines zeitlichen Abstands zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit überprüft wird, ob es sich hinter oder auf einem der weiteren Objekte befindet. Dies erlaubt es, zeitweise verdeckte Objekte zuverlässig zu detektieren und nachzuverfolgen.
  • Alternativ oder zusätzlich kann ein auf einer Aufnahme im Arbeitsbereich bislang nicht befindliches Objekt, das auf einer nachfolgenden Aufnahme sichtbar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit überprüft wird, ob es sich auf der vorhergehenden Aufnahme hinter oder auf einem der weiteren Objekte befand.
  • Eine Vorrichtung zur Mensch-Roboter-Kooperation weist einen Sensor, der eingerichtet ist, mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters zu bestimmen, eine Auswerteeinheit, die ausgebildet ist, die sicherheitsrelevante Information durch eine Auswerteeinheit als einer von mindestens zwei möglichen Klassen zugehörig einzuteilen, wobei eine erste Klasse einen Gefahrenbereich, in dem kein Objekt bei einer Bewegung des Roboters zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, und eine Steuereinheit auf, die eingerichtet ist, eine durchzuführende Aufgabe des Roboters zu definieren sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig einzuteilen. Eine erste Kooperationsstufe umfasst eine räumlich getrennte Aufgabenverrichtung des Roboters und eines Benutzers an unterschiedlichen Bauteilen, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und des Benutzers an einem gemeinsam bearbeiteten Bauteil, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil ohne gegenseitige physische Berührung des Roboters und des Benutzers, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil mit gegenseitiger physischer Berührung. Die Steuereinheit ist weiter dazu ausgebildet, den Roboter in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen anzusteuern.
  • Die Auswerteeinheit und die Steuereinheit können, um eine kompakte Bauform zu erreichen, in einem einzigen Gehäuse untergebracht sein und bzw. oder durch ein einziges Gerät als Auswerte-Steuereinheit realisiert sein.
  • Die beschriebene Vorrichtung ist typischerweise zum Durchführen des beschriebenen Verfahrens eingerichtet bzw. das beschriebene Verfahren kann mit der beschriebenen Vorrichtung durchgeführt werden.
  • Ein Computerprogrammprodukt mit einem Computerprogramm weist Softwaremittel zum Durchführen des beschriebenen Verfahrens auf, wenn das Computerprogramm in einem Automatisierungssystem bzw. einer Recheneinheit ausgeführt wird. Das Computerprogramm wird typischerweise zum Steuern der bereits beschriebenen Vorrichtung eingesetzt.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der 1 bis 5 erläutert.
  • Es zeigen:
  • 1 eine schematische Darstellung von vier möglichen Kooperationsstufen zwischen Roboter und Mensch;
  • 2 eine schematische dreidimensionale Ansicht einer Klasseneinteilung samt zugeordneter Ansteuerungsmöglichkeiten;
  • 3 eine tabellarische Übersicht von Sicherheitsfunktionen in jeder der Kooperationsstufen;
  • 4 ein Ablaufdiagramm einer Überprüfung eines Objekts und
  • 5 eine schematische Darstellung möglicher Bereiche.
  • 1 zeigt in einer schematischen Darstellung vier mögliche Kooperationsstufen zwischen einem Roboter 1 und einem Menschen 2 als Benutzer des Roboters 1 bzw. als in einem Arbeitsbereich des Roboters 1 anzutreffendes Objekt. Die vier möglichen Kooperationsstufen kennzeichnen sämtliche Interaktionsmöglichkeiten, so dass jeder Benutzer anhand einer gestellten Aufgabe bzw. Applikation entscheiden kann, in welcher Form die Kooperation zwischen dem Roboter 1 und dem Menschen 2 stattfinden soll.
  • In jeder Kooperationsstufe wird definiert, wie viele Bereiche es an einem Arbeitsplatz gibt und welche Eigenschaften diese haben. Neben der Form und Größe dieser Bereiche wird typischerweise auch festgelegt, ob der Roboter 1 bzw. der Mensch 2 in diesen Bereichen anwesend sein darf oder nicht. Ein in einer Auswerteeinheit bzw. Steuereinheit als Computerprogramm ablaufender Algorithmus kann hierbei zyklisch wiederkehrend überprüfen, in welchem Bereich sich ein Objekt wie der Mensch 2 befindet und ob dessen Anwesenheit an dieser Position nach den Vorgaben erlaubt ist.
  • Damit ein Bereich als Sicherheitsbereich angesehen wird, kann durch einen Klassifikator bzw. ein Filter auf ein Vorliegen unerwünschter Ereignisse überprüft werden. Dies kann auch im Vorfeld bereits an der Steuereinheit bzw. der Auswerteeinheit festgelegt werden, ebenso, was als unerwünschtes Ereignis angesehen werden soll. Sind für einen Bereich alle vorgegebenen Bedingungen erfüllt, kann der Roboter 1 mit einer gewünschten Geschwindigkeit bzw. Beschleunigung verfahren werden. Trifft eine der formulierten Bedingungen nicht zu, wird die Bewegung des Roboters 1 sofort unterbunden, bis wieder alle Bedingungen erfüllt sind. In jedem Bereich kann hierzu eine unterschiedliche Regelungsstruktur wie beispielsweise bildbasiert, positionsbasiert, kraftbasiert oder eine hybride Regelung definiert sein.
  • In der ersten Kooperationsstufe ist lediglich eine passive Kooperation zwischen dem Menschen 2 und dem Roboter 1 vorgesehen. Beide verrichten ihre Arbeit unabhängig voneinander in einem Arbeitsraum bzw. an einem Arbeitsplatz ohne Schutzvorrichtungen wie z. B. einen Sicherheitszaun. Dies kann beim Bereitstellen eines schweren Bauteils 3 in einer Fertigungslinie einer Endmontage der Automobilindustrie der Fall sein. Der Roboter 1 holt das Bauteil 3 von einer Lagerfläche und legt es an einem Montageplatz ab. Der Mensch 2 ist hieran nicht beteiligt und kann anderweitig einer Arbeit nachgehen.
  • Um zu gewährleisten, dass es zu keiner Gefährdung des Menschen 2 während der Tätigkeit kommt, werden zwei Bereiche definiert: Vom Sicherheitsbereich wird der Arbeitsbereich des Menschen 2 umfasst, in dem sich der Mensch 2 gefahrlos bewegen kann und in dem die Anwesenheit des Roboters 1 nicht erlaubt ist. Der Roboter 1 darf sich nur im Gefahrenbereich aufhalten. Sobald der Mensch 2 den Gefahrenbereich betritt, wird die Bewegung des Roboters 1 unterbrochen und erst dann wieder aufgenommen, wenn der Mensch 2 diese verlassen hat. Außerdem wird die Bewegung des Roboters 1 gestoppt, wenn dieser die Grenzen des Gefahrenbereichs überschreitet und in den Arbeitsbereich des Menschen 2 eindringt. Der Gefahrenbereich ist in diesem Ausführungsbeispiel kleiner als ein Arbeitsbereich des Roboters 1 gewählt. Die Form der Bereiche kann statisch durch Angabe raumfest vorgegebener Punkte oder dynamisch durch eine Kopplung mit einem Robotermodell definiert werden. Im Gefahrenbereich selbst kann der Roboter 1 mit maximal möglicher Geschwindigkeit agieren.
  • In der zweiten Kooperationsstufe können der Mensch 2 und der Roboter 1 auf einem sehr niedrigen Niveau zusammenarbeiten. Der Mensch 2 kann sich dem Roboter 1 bis auf eine vorgegebene Distanz nähern und kooperieren. Es ist jedoch ausgeschlossen, dass der Mensch 2 und der Roboter 1 physisch oder direkt miteinander arbeiten, d. h. es ist insbesondere kein direkter körperlicher Kontakt möglich, vielmehr wird eine räumliche Trennung eingehalten.
  • Dies kann beispielsweise bei Montageaufgaben der Fall sein, bei denen der Roboter 1 das Bauteil 3 ortsfest fixiert und der Mensch 2 an dem Bauteil 3 Arbeiten vornimmt. Hierbei sollte die Geschwindigkeit des Roboters 1 so stark reduziert werden, dass keine unmittelbare Gefahr für den Menschen 2 besteht.
  • Zusätzlich zu dem schon beschriebenen Gefahrenbereich und dem Sicherheitsbereich wird auf dieser Kooperationsstufe ein Kooperationsbereich definiert. Die drei Bereiche sind im dargestellten Ausführungsbeispiel schalenförmig um den Roboter 1 aufgebaut. Im Kooperationsbereich können der Roboter 1 und der Mensch 2 gemeinsame Aufgaben verrichten. Wird durch einen Sensor der Mensch 2 oder ein anderes sicherheitsrelevantes Objekt im Kooperationsbereich detektiert, wird durch die Steuereinheit nach einem entsprechenden Signal der Auswerteeinheit die Geschwindigkeit des Roboters 1 so stark reduziert, dass keine ernsthafte Gefahr für den Menschen 2 besteht.
  • Wie in der Kooperationsstufe 1 kann die Form des Kooperationsbereichs statisch oder dynamisch sein, also insbesondere hinsichtlich Form, Ausdehnung bzw. Ort angepasst werden. Aufgrund des zusätzlichen Bereichs ist der Gefahrenbereich nun an den Roboter 1 gekoppelt und kann sich dynamisch mit einer aktuellen Pose des Roboters 1 verändern.
  • In der dritten Kooperationsstufe ist eine direkte Zusammenarbeit zwischen dem Roboter 1 und dem Menschen 2 vorgesehen, eine physische Interaktion, also ein gegenseitiges Berühren jedoch ausgeschlossen. Der Mensch 2 als Benutzer kann beispielsweise dem Roboter 1 durch Handbewegungen deutlich machen, dass dieser seien Bewegung stoppt oder aufnimmt. Hierfür ist typischerweise ein optischer Sensor an dem Roboter 1 oder im Arbeitsraum angebracht, wobei die Auswerteeinheit entsprechende Gesten des Benutzers auswertet und die Steuereinheit zum Ausführen entsprechender Steuerbefehle anleitet. In dieser Kooperationsstufe kann zum Beispiel eine Übergabe des Bauteils 3 von dem Roboter 1 an den Menschen 2 erfolgen. Hierbei signalisiert der Mensch 2 dem Roboter 1 über eine Geste seine Übernahmebereitschaft. Der Roboter 1 steuert dann auf eine offene Hand des Menschen 2 zu, bis der Mensch 2 den Gegenstand berührt. Durch das Aufbringen einer Kraft bestätigt der Mensch 2, dass das Objekt gegriffen ist und der Roboter 1 öffnet seinen am Roboterarm angebrachten Greifer.
  • Auf dieser Kooperationsstufe können drei oder vier wiederum schalenförmig um den Roboter 1 verlaufende Bereiche vorgesehen sein. Neben dem Sicherheitsbereich soll nun ein erster Kooperationsbereich existieren, in dem der Roboter 1 nur mit verminderter Geschwindigkeit operieren darf. In einem zweiten Kooperationsbereich, der auch als Übergabebereich bezeichnet wird, soll die beschriebene direkte Kooperation stattfinden und die Auswerteeinheit sowie die Steuereinheit ermöglichen nur in diesem Bereich eine Gestenerkennung oder eine Erkennung von Handbewegungen. Wie zuvor beschrieben können die Bereiche wiederum statisch oder dynamisch ausgebildet sein. Die Form des Übergabebereichs kann an den Roboter 1 gekoppelt sein, so dass ein Annähern des Menschen 2 sofort registriert wird. Wie zuvor wird ein Gefahrenbereich definiert, in dem der Roboter 1 bei Eindringen des Menschen 2 sofort stoppt.
  • Schließlich kann in der vierten Kooperationsstufe eine direkte Zusammenarbeit mit physischer Interaktion zwischen dem Menschen 2 und dem Roboter 1 erreicht werden. Neben der Steuerung durch Gesten und Handbewegungen ist eine Führung des Roboters 1 mittels einer Kraft-Drehmoment-Regelung möglich. Beispielhaft wird diese Kooperationsstufe zum Positionieren von schweren Bauteilen 3 an einem nur umständlich oder schwer zugänglichen Montageplatz genutzt. Der Roboter 1 wartet in diesem Fall mit dem gegriffenen Bauteil 3 bis der Mensch 2 den ersten Kooperationsbereich betritt und den Roboter 1 durch Krafteinwirkung am Bauteil 3 oder am Greifer in die gewünschte Richtung führt. Der Roboter 1 trägt hierbei die Last und der Mensch 2 kann sich auf die Positionierung konzentrieren.
  • Der Bereichsaufbau der vierten Kooperationsstufe ist in dem dargestellten Ausführungsbeispiel wie der Aufbau der dritten Kooperationsstufe ausgestaltet.
  • Wie beschrieben werden somit verschiedene Kooperationsstufen und verschiedene Bereiche definiert, wobei die Roboterregelung bzw. die Robotersteuerung an die Kooperationsstufe und die Einteilung in einen der Bereiche angepasst wird. Es kann auch vorgesehen sein, dass die Regelung bei jeder Achse verschieden eingestellt wird. Mittels des vom Computerprogramm ausgeführten Algorithmus, der das beschriebene Verfahren durchführt, wenn das Computerprogramm auf einer Recheneinheit wie einem Computer bzw. der Auswerteeinheit/der Steuereinheit abläuft, kann eine bereichsbasierte und stufenbasierte Regelung, wie eine bildbasierte, eine positionsbasierte, eine kraft basierte, eine drehmomentbasierte und bzw. oder eine hybride Regelung durchgeführt werden.
  • Beispielhaft sollen in den folgenden Tabellen die Konfiguration, mögliche Objekte und Ereignisse und entsprechende Regelungsstrategien dargestellt werden: Tabelle 1 Bereichskonfiguration
    Figure DE102016216441B3_0002
    Tabelle 2 Objekte/Ereignisse in den Bereichen
    Figure DE102016216441B3_0003
    Tabelle 3 Regelungsstrategie Bereiche
    Figure DE102016216441B3_0004
  • Wie in 2 in einer schematischen dreidimensionalen Ansicht einer Klasseneinteilung samt zugeordneter Ansteuerungsmöglichkeiten dargestellt, wird also durch einen Sensor, beispielsweise eine stereoskopische Kamera, ein sicherheitsrelevantes Merkmal wie ein Abstand zwischen dem Menschen 2 und dem Roboter 1 ermittelt, und eine entsprechende Einteilung in verschiedene Klassen bzw. Bereiche anhand dieses sicherheitsrelevanten Merkmals vorgenommen. Ferner wird durch die Auswerteeinheit neben der Bereichseinteilung auch eine Einteilung je nach Kooperationsstufe vorgenommen und im Zusammenspiel zwischen der Auswerteeinheit und der Steuereinheit eine entsprechende Regelung durch Ansteuerung der Roboterachsen erreicht. Dies ist in 2 schematisch durch die beeinflussbaren drei translatorischen und drei rotatorischen Freiheitsgrade dargestellt, anhand derer die Trajektorie des Roboters 1 definiert wird. Wiederkehrende Merkmale sind in dieser Figur wie auch in den weiteren Figuren mit identischen Bezugszeichen versehen.
  • 3 zeigt eine tabellarische Übersicht von Sicherheitsfunktionen in jeder der Kooperationsstufen. So soll beispielsweise ein Stoppen des Roboters 1 in jeder der Kooperationsstufen möglich sein. Sicherheitsfunktionen, die in jeder Kooperationsstufe vorgesehen sind, sind mit einem Haken versehen, während ausgeschlossene Sicherheitsfunktionen der jeweiligen Kooperationsstufe mit einem Kreuz gekennzeichnet sind. Optionale Funktionen sind durch den Begriff ”optional” in der Tabelle gekennzeichnet.
  • So kann es weiter vorgesehen sein, fehlerhafte Vorkommnisse zu detektieren, aber je nach Kooperationsstufe unterschiedlich zu handhaben. Bei einer kamerabasierten Überwachung von Arbeitsräumen können bestimmte Szenen und Situationen von einer Bildverarbeitungssoftware fehlerhaft interpretiert werden. Eine Häufigkeit derartiger Vorkommnisse und eine Sensitivität sind sehr stark von der verwendeten Hardware bzw. dem genutzten Algorithmus abhängig. Auch bei Verwenden mehrerer Kameras können Verdeckungsfehler, also Fälle, in denen ein im Arbeitsraum befindliches Objekt von einem anderen Objekt verdeckt und daher nicht detektiert wird, nicht vollkommen ausgeschlossen werden.
  • Insgesamt sollen bei fehlerhaften Ereignissen im Rahmen dieser Schrift vier Fälle unterschieden werden, die sich in zwei Klassen einteilen lassen: ein bislang detektiertes Objekt kann verlorengehen, da es mit einem anderen Objekt vereinigt wurde oder verdeckt ist, und ein neues, bislang nicht detektiertes Objekt kann auftauchen, das nun getrennt von einem anderen Objekt auftaucht oder nicht mehr verdeckt ist. Die Fehlerfälle ”Verdeckung” und Vereinigen treten dann auf, wenn ein Objekt im Arbeitsraum nicht mehr auffindbar ist, das Objekt im aktuellen Zyklus also nicht mehr vom Sensor erkannt wird. In den meisten Fällen hat das Objekt das Sichtfeld des Sensors verlassen, in einigen Fällen kommt es aber zu den genannten Fehlerfällen, die aufgrund der Lage der Objekte zueinander oder durch eine falsche Interpretation von Kamerabildern oder anderen Aufnahmen zustande kommen.
  • Bei der Vereinigung befinden sich im Arbeitsraum zwei Objekte, deren Abstand zueinander sehr klein ist. Der Erkennungsalgorithmus kann diese nicht voneinander unterscheiden und erfasst die gesamte Bildregion als ein Objekt. Beispielsweise kann sich im Greifer des Roboters 1 ein schweres Bauteil 3 befinden, an dem etwas montiert werden soll. Der Mensch 2 nähert sich dem Bauteil 3 oder dem Roboter 1 so stark an, dass von der Kamera nur noch ein einziges Objekt erkannt werden kann. Alternativ kann sich der Mensch 2 auch auf einen Stuhl setzen und in der Kameraaufnahme fusionieren der Mensch 2 und der Stuhl zu einem einzigen Objekt.
  • Bei der Verdeckung wird ein kleineres Objekt von einem größeren Objekt verdeckt, was voraussetzt, dass sich beide in einer Flucht zur Kamera befinden. Das kleinere Objekt muss weiter von der Kamera entfernt sein als das größere Objekt. Aufgrund der Perspektive kann die Kamera bzw. der Algorithmus das zweite Objekt im Bild bzw. in der Aufnahme nicht erkennen.
  • Beispielsweise kann eine Kiste mit Bauteilen 3 im Arbeitsraum stehen. Der Mensch 2 verdeckt diese mit seinem gesamten Körper, so dass die Kiste in der Aufnahme nicht mehr auffindbar ist. Es kann aber auch ein kleiner Teil des Roboters 1 sich im Blickfeld der Kamera befinden, beispielsweise der Greifer. Bei der Montage oder Übergabe von Bauteilen 3 wird dieser vom Menschen 2 verdeckt. Im Bild der Kamera verschwindet das kleine Objekt hinter dem größeren Objekt.
  • Bei der Fehlerklasse ”Neues Objekt” treten die beiden Fehlerfälle ”Trennung” und ”Abdeckung” dann auf, wenn der Algorithmus ein neues Objekt im Arbeitsraum erkannt hat. Treffen diese beiden Fehlerfälle nicht zu, hat das neue Objekt den Arbeitsraum von außen betreten.
  • Bei der Trennung erfasste der Algorithmus bislang zwei Objekte als ein einziges Objekt, da deren Abstand zueinander zu gering ist. Nachdem sich beide Objekte voneinander entfernt haben, werden diese als zwei separate Objekte in der Aufnahme erkannt. Beispielsweise kann der Mensch 2 an dem Bauteil 3 montieren, das vom Greifer des Roboters 1 gehalten wird. Aufgrund der geringen Distanz wird nur ein einziges Objekte erkannt. Nach Abschluss der Arbeit entfernt sich der Mensch 2 von dem Roboter 1, so dass nun ein neues Objekt i der Aufnahme erkannt wird. Der Mensch 2 kann aber auch nach getaner Arbeit von einem Stuhl aufstehen, wodurch der Algorithmus nun ein zweites Objekt an einer Stelle erkennt, an der zuvor der Mensch 2 gesessen hat.
  • Bei der ”Abdeckung” kann der Algorithmus aufgrund der Perspektive ein verdecktes Objekt in der Aufnahme nicht erkennen. Durch die Bewegung des verdeckenden Objekts wird dieses sichtbar. Der Algorithmus erfasst jetzt das bislang abgedeckte Objekt. So kann der Mensch 2 das Bauteil 3 am Greifer des Roboters 1 montieren und dabei den sichtbaren Teil des Roboters 1 verdecken. Bei Beendigung der Arbeit hebt er die Verdeckung wieder auf und der Greifer des Roboters 1 wird in der Aufnahme erkannt.
  • Für die Registrierung der dargestellten vier Fehlerfälle im laufenden Betrieb wird jeweils ein separater Klassifikator im Computerprogramm verwendet. Hierfür speichert der Algorithmus Daten eines Objekts über mehrere Zyklen in einem Ringspeicher ab. Ist das Maximum des Ringspeichers erreicht, der typischerweise Teil der Auswerteeinheit ist, wird der zeitlich älteste Eintrag automatisch gelöscht. Jedes Objekt mit einer eigenen Identifikationsnummer wird in einem Ringspeicher vermerkt. 4 zeigt schematisch einen derartigen Klassifikator als Ablaufdiagramm.
  • Die in 3 unter ”fehlerhafte Vorkommnisse” vermerkten Ereignisse sollen wie dargestellt also in jeder der Kooperationsstufen vorkommen können. Zudem besteht die Möglichkeit, die Roboterposition oder die Robotergeschwindigkeit zu überwachen bzw. zu kontrollieren, ein optisches System kann in Bereitschaft verbleiben bzw. Oberkörper oder Hand des Menschen 2 überwachen oder eine Kraft-Drehmomentsensorik kann überwacht bzw. kontrolliert werden.
  • Zusammenfassend zeigt 3 die benötigten Sicherheitsfunktionen gegenüber den beschriebenen vier Kooperationsstufen. Die Sicherheitsanforderungen ergeben sich dabei aus der Art der Zusammenarbeit zwischen dem Menschen 2 und dem Roboter 1. Je näher der Mensch 2 und der Roboter 1 zusammenarbeiten desto detaillierter müssen die Informationen der Umgebung sein, in welcher der MRK-Prozess stattfindet.
  • Die wichtigste Funktion ist die Sicherheits-Stopp-Funktion, diese Funktion wird in allen Kooperationsleveln bzw. Kooperationsstufen benötigt. Wenn der Mensch 2 den Gefahrenbereich des Roboters 1 betritt, soll dieser sofort gestoppt werden. Die Sicherheitsfunktion soll prüfen, ob die Anwesenheit des Menschen 2 oder des Roboters 1 in der jeweiligen Bereich erlaubt ist. Weiterhin wird der Abstand zwischen dem Roboter 1 und dem Menschen 2 berechnet.
  • Die zweite Sicherheitsfunktion prüft, ob ein Fehlerfall vorliegt oder nicht. Ist dies der Fall, wird verifiziert, ob dieser in dem jeweiligen Bereich zugelassen ist oder nicht. Prinzipiell sind die Fehlerfälle zu keinem Zeitpunkt erwünscht, können aber in der dritten und der vierten Kooperationsstufe aufgrund der Nähe zwischen dem Menschen 2 und dem Roboter 1 auftreten.
  • Bei der Sicherheitsfunktion „Regelung der Roboterposition” wird die Roboterposition zu jedem Zeitpunkt in allen Kooperationsstufen überwacht. Die Regelung/Beeinflussung wird nur dann benötigt, wenn eine direkte Kooperation stattfindet, also in der dritten und der vierten Kooperationsstufe. Optional kann die Position auch in der zweiten Kooperationsstufe geregelt werden, wenn der Bedarf da ist.
  • Bei der Sicherheitsfunktion „Robotergeschwindigkeit” wird die Robotergeschwindigkeit in der zweiten, dritten und vierten Kooperationsstufe je nach Abstand zwischen dem Roboter 1 und dem Menschen 2 überwacht bzw. geregelt. Ist der Mensch 2 nah, verfährt der Roboter 1 langsam. Ist der Mensch 2 weiter entfernt, fährt der Roboter 1 mit voller Geschwindigkeit. In der ersten Kooperationsstufe sollte die Geschwindigkeit überwacht werden, muss aber nicht geregelt werden, weil der Mensch 2 dem Roboter 1 nicht zu nahe kommen kann.
  • In der Funktion „Nah-Überwachung” wird angegeben, wie hoch die Informationsdichte des Menschen 2 im Nahbereich in den einzelnen Kooperationsstufen sein muss. In der ersten Kooperationsstufe sind keine Informationen im Nahbereich notwendig, weil es zu keiner Kooperation kommen soll. In der vierten Kooperationsstufe ist dagegen eine hohe Dichte erforderlich. Es wird typischerweise die Position von Kopf, Schultern und Hand des Menschen 2 benötigt.
  • Bei der Sicherheitsfunktion „Registrierung der Kräfte und Moment” werden mithilfe von Sensoren anliegende Kräfte und Momente gemessen. Diese können Aufschluss über eine Kollision zwischen dem Roboter 1 und dem Menschen 2 geben. Je nach Kooperationsstufe ist eine Überwachung und Regelung erlaubt. Die Funktion wird hauptsächlich für die dritte und die vierte Kooperationsstufe benötigt, wo eine physische Interaktion erwartet wird.
  • In 5 ist in einer schematischen Ansicht der Roboter 1 innerhalb des Arbeitsraums 4 dargestellt. Der Arbeitsraum 4 wird über eine stereoskopische Kamera 5 als Sensor überwacht, die räumlich getrennt von dem Roboter 1 angeordnet ist und sich oberhalb des Roboterfußes befindet sowie mit einer Auswerteeinheit 6 und einer Steuereinheit 7 verbunden ist. Die Auswerteeinheit 6 und die Steuereinheit 7 sind in dem dargestellten Ausführungsbeispiel in einem einzigen Gerät, einem Computer, auf dem auch das Computerprogramm zum Durchführen des Verfahrens der Mensch-Roboter-Kooperation abläuft, verwirklicht. Der Arbeitsraum 4 wird in gleich große virtuelle Teilflächen eingeteilt. In unmittelbarer Umgebung des Roboters 1 wird der Gefahrenbereich 8 definiert und durch eine senkrechte Schraffur gekennzeichnet, während ein angrenzender Kooperationsbereich 9 durch eine waagrechte Schraffur markiert ist. Der Sicherheitsbereich 10, in dem sich der Mensch 2 aufhalten darf, ist nicht schraffiert dargestellt.
  • Lediglich in den Ausführungsbeispielen offenbarte Merkmale der verschiedenen Ausführungsformen können miteinander kombiniert und einzeln beansprucht werden.

Claims (12)

  1. Verfahren zur Mensch-Roboter-Kooperation bei dem durch mindestens einen Sensor (5) mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich eines Roboters (1) bestimmt wird, die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt wird, wobei eine erste Klasse einen Gefahrenbereich (8), in dem kein Objekt bei einer Bewegung des Roboters (1) zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich (10) kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, in einer Steuereinheit (7) eine durchzuführende Aufgabe des Roboters (1) definiert wird sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt wird, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und eines Benutzers (2) an unterschiedlichen Bauteilen (3) umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an einem gemeinsam bearbeiteten Bauteil (3) umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) ohne gegenseitige physische Berührung des Roboters (1) und des Benutzers (2) umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) mit gegenseitiger physischer Berührung umfasst, wobei der Roboter (1) durch die Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen angesteuert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens drei möglichen Klassen zugehörig eingeteilt wird, wobei eine dritte Klasse einen Kooperationsbereich (9) definiert, in der sich zu bestimmten Zeitpunkten ein Objekt befinden darf.
  3. Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass der Überwachungsbereich von der Auswerteeinheit (6) dynamisch in Abhängigkeit von dem Sensor (5) detektierten Signalen des Roboters (1) und des Objekts an einen aktuellen Arbeitsbereich des Roboters (1) angepasst wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die sicherheitsrelevante Information einen Abstand und/oder einen Winkel zwischen dem Roboter (1) und dem Objekt aufweist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information den Roboter (1) hinsichtlich einer translatorischen Bewegung in mindestens einem Freiheitsgrad, einer rotatorischen Bewegung in mindestens einem Freiheitsgrad, einer Geschwindigkeit und/oder einer Beschleunigung der Bewegung ansteuert.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anpassung des Überwachungsbereichs hinsichtlich Form, Ausdehnung und/oder Ort durchgeführt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von der Einteilung eine klassenspezifische und stufenspezifische bildbasierte, positionsbasierte, kraftbasiert und/oder drehmomentbasierte Ansteuerung durchgeführt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die sicherheitsrelevante Information durch einen optischen Sensor, einen induktiven Sensor, einen kapazitiven Sensor, einen Kraftsensor und/oder einen Drehmomentsensor detektiert wird, wobei der optische Sensor vorzugsweise als stereoskopische Kamera ausgebildet wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass von dem als stereoskopische Kamera ausgebildeten Sensor (5) mehrere Aufnahmen des Überwachungsbereichs aufgenommen werden, wobei jede der Aufnahmen in einem Ringspeicher der Auswerteeinheit (6) abgespeichert wird sowie in jeder der Aufnahmen durch die Auswerteeinheit (6) das sicherheitsrelevante Merkmal ermittelt wird, wobei durch einen paarweisen Vergleich zu unterschiedlichen Zeitpunkten erfasster Aufnahmen das im Arbeitsbereich befindliche Objekt nachverfolgt wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass ein auf einer Aufnahme im Arbeitsbereich befindliches Objekt, das auf einer nachfolgenden Aufnahme nicht mehr sichtbar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit (6) überprüft wird, ob es sich hinter oder auf einem der weiteren Objekte befindet.
  11. Verfahren nach Anspruch 9 oder Anspruch 10, dadurch gekennzeichnet, dass ein auf einer Aufnahme im Arbeitsbereich bislang nicht befindliches Objekt, das auf einer nachfolgenden Aufnahme sichtbar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit (6) überprüft wird, ob es sich auf der vorhergehenden Aufnahme hinter oder auf einem der weiteren Objekte befand.
  12. Vorrichtung zur Mensch-Roboter-Kooperation, mit einem Sensor (5), der eingerichtet ist, mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters (1) zu bestimmen, einer Auswerteeinheit (6), die ausgebildet ist, die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig einzuteilen, wobei eine erste Klasse einen Gefahrenbereich (8), in dem kein Objekt bei einer Bewegung des Roboters (1) zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich (10) kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, und eine Steuereinheit (7), die eingerichtet ist, eine durchzuführende Aufgabe des Roboters (1) zu definieren sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig einzuteilen, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und eines Benutzers (2) an unterschiedlichen Bauteilen (3) umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an einem gemeinsam bearbeiteten Bauteil (3) umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) ohne gegenseitige physische Berührung des Roboters (1) und des Benutzers (2) umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) mit gegenseitiger physischer Berührung umfasst, und den Roboter (1) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen anzusteuern.
DE102016216441.4A 2016-08-31 2016-08-31 Verfahren und Vorrichtung zur Mensch-Roboter Kooperation Active DE102016216441B3 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016216441.4A DE102016216441B3 (de) 2016-08-31 2016-08-31 Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
PCT/EP2017/071470 WO2018041743A1 (de) 2016-08-31 2017-08-25 Verfahren und vorrichtung zur mensch-roboter kooperation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016216441.4A DE102016216441B3 (de) 2016-08-31 2016-08-31 Verfahren und Vorrichtung zur Mensch-Roboter Kooperation

Publications (1)

Publication Number Publication Date
DE102016216441B3 true DE102016216441B3 (de) 2018-01-04

Family

ID=59829339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016216441.4A Active DE102016216441B3 (de) 2016-08-31 2016-08-31 Verfahren und Vorrichtung zur Mensch-Roboter Kooperation

Country Status (2)

Country Link
DE (1) DE102016216441B3 (de)
WO (1) WO2018041743A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017113392A1 (de) * 2017-06-19 2018-12-20 Sick Ag Vorrichtung zur Sicherheitssteuerung einer Maschine
DE102017216863B3 (de) 2017-09-22 2018-12-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Robotersystem zum Anpassen eines Robotereinsatzes an einen Arbeitsprozess
DE102017221348A1 (de) * 2017-11-29 2019-05-29 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung von Zeitdaten für ein Mensch-Roboter-Kooperations-System
DE102019001373A1 (de) * 2019-02-27 2020-08-27 Florian Fried Verfahren zum berührungslosen Führen eines Robotersystems in einer Mensch-Roboter-Kollaboration (MRK)
CN112936268A (zh) * 2021-01-30 2021-06-11 埃夫特智能装备股份有限公司 一种协作机器人安全控制系统
DE102020114012A1 (de) 2020-05-26 2021-12-02 Bayerische Motoren Werke Aktiengesellschaft Greifer für eine Robotervorrichtung sowie Verfahren zum Betreiben eines Greifers

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846891B (zh) * 2018-05-30 2023-04-28 广东省智能制造研究所 一种基于三维骨架检测的人机安全协作方法
AT522116A1 (de) * 2019-01-22 2020-08-15 Engel Austria Gmbh Verfahren zum Anpassen von Sicherheitsbereichen
EP3808511A1 (de) 2019-10-15 2021-04-21 Siemens Aktiengesellschaft Verfahren zum überwachen einer arbeitsumgebung und überwachungseinrichtung
CN112363470A (zh) * 2020-11-05 2021-02-12 苏州工业园区卡鲁生产技术研究院 用户协作型机器人控制系统
CN114219220B (zh) * 2021-11-18 2022-12-09 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 人机工效评估方法、系统、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005003827A1 (de) * 2005-01-26 2006-07-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
DE202013104264U1 (de) * 2013-09-18 2015-01-09 Daimler Ag Arbeitsstation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010017857B4 (de) 2010-04-22 2019-08-08 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
US20150294496A1 (en) * 2014-04-14 2015-10-15 GM Global Technology Operations LLC Probabilistic person-tracking using multi-view fusion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005003827A1 (de) * 2005-01-26 2006-07-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
DE202013104264U1 (de) * 2013-09-18 2015-01-09 Daimler Ag Arbeitsstation

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017113392A1 (de) * 2017-06-19 2018-12-20 Sick Ag Vorrichtung zur Sicherheitssteuerung einer Maschine
DE102017113392B4 (de) * 2017-06-19 2021-06-10 Sick Ag Vorrichtung zur Sicherheitssteuerung einer Maschine
DE102017216863B3 (de) 2017-09-22 2018-12-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Robotersystem zum Anpassen eines Robotereinsatzes an einen Arbeitsprozess
WO2019057679A1 (de) 2017-09-22 2019-03-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und robotersystem zum anpassen eines robotereinsatzes an einen arbeitsprozess
DE102017221348A1 (de) * 2017-11-29 2019-05-29 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung von Zeitdaten für ein Mensch-Roboter-Kooperations-System
DE102019001373A1 (de) * 2019-02-27 2020-08-27 Florian Fried Verfahren zum berührungslosen Führen eines Robotersystems in einer Mensch-Roboter-Kollaboration (MRK)
DE102019001373B4 (de) * 2019-02-27 2020-11-19 Florian Fried Verfahren zum berührungslosen Führen eines Robotersystems in einer Mensch-Roboter-Kollaboration (MRK)
DE102020114012A1 (de) 2020-05-26 2021-12-02 Bayerische Motoren Werke Aktiengesellschaft Greifer für eine Robotervorrichtung sowie Verfahren zum Betreiben eines Greifers
CN112936268A (zh) * 2021-01-30 2021-06-11 埃夫特智能装备股份有限公司 一种协作机器人安全控制系统

Also Published As

Publication number Publication date
WO2018041743A1 (de) 2018-03-08

Similar Documents

Publication Publication Date Title
DE102016216441B3 (de) Verfahren und Vorrichtung zur Mensch-Roboter Kooperation
EP2838698B2 (de) Roboteranordnung und verfahren zum steuern eines roboters
DE102018121388B4 (de) Robotersystem
EP3011225B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
DE102015012232A1 (de) Mit Menschen kollaborierendes Robotersystem
DE102012212754B4 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
EP2989369B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
DE10251584B4 (de) Verfahren und Vorrichtung zur Überwachung eines Erfassungsbereiches
DE10224031B3 (de) Vorrichtung zur Überwachung eines Erfassungsbereiches an einem Arbeitsmittel
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
EP3611422B1 (de) Sensoranordnung und verfahren zum absichern eines überwachungsbereichs
WO2013135608A1 (de) Verfahren und vorrichtung zum absichern eines gefährlichen arbeitsbereichs einer automatisiert arbeitenden maschine
DE102018118265B4 (de) Verfahren und Überwachungssystem zum Absichern einer Maschine
DE10324627A1 (de) Arbeitsraumüberwachung für automatisiert arbeitende Maschinen
DE102012007242A1 (de) Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation
EP3234442B1 (de) Verfahren zur überwachung eines koordinatenmessgeräts
WO2015049207A2 (de) Mrk planungstechnologie
WO2018145990A1 (de) Vorrichtung zur absicherung eines maschinell gesteuerten handhabungsgeräts und verfahren
DE102018117829A1 (de) Steuereinheit für Gelenkroboter
WO2015049202A2 (de) Mrk planungs- und überwachungstechnologie
EP3650740A1 (de) Sicherheitssystem und verfahren zum überwachen einer maschine
DE10324628A1 (de) Steuerverfahren für einen Roboter
DE102018216034A1 (de) Robotersystem
DE102020103857B4 (de) Kraftbegrenzung bei Kollision eines Robotermanipulators
DE102016222245A1 (de) Einrichtung und Verfahren zur Einwirkung auf Gegenstände

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative
R084 Declaration of willingness to licence