WO2014008929A1 - Roboteranordnung und verfahren zum steuern eines roboters - Google Patents
Roboteranordnung und verfahren zum steuern eines roboters Download PDFInfo
- Publication number
- WO2014008929A1 WO2014008929A1 PCT/EP2012/063500 EP2012063500W WO2014008929A1 WO 2014008929 A1 WO2014008929 A1 WO 2014008929A1 EP 2012063500 W EP2012063500 W EP 2012063500W WO 2014008929 A1 WO2014008929 A1 WO 2014008929A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- person
- robot
- action area
- sensor unit
- action
- Prior art date
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4061—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39082—Collision, real time collision avoidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39091—Avoid collision with moving obstacles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39097—Estimate own stop, brake time, then verify if in safe distance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40201—Detect contact, collision with human
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/09—Closed loop, sensor feedback controls arm movement
Abstract
Die Erfindung betrifft ein Verfahren zum Steuern eines Roboters (14), welcher in einem Arbeitsmodus betreibbar ausgestaltet ist, in welchem ein Teil (16) des Roboters (14) mit einer Geschwindigkeit bewegt wird, bei welcher ein Verletzungsrisiko für eine Person (12) besteht, wobei der Arbeitsmodus deaktiviert wird, falls durch eine Sicherungseinrichtung (18) erkannt wird, dass die Person (12) in einen Aktionsbereich (60) des beweglichen Teils (16) eindringt. Zwischen der Person (12) und dem Roboter (14) soll eine enge Zusammenarbeit ermöglich werden. Erfindungsgemäß werden durch eine Sensoreinheit (20) eine Position und eine Körperhaltung der Person (12) ermittelt, während sich die Person (12) außerhalb des Aktionsbereichs (60) des Teils (16) befindet. Durch eine Prädiktionseinheit (26) wird ein Aktionsbereich (58) der Person (12) ermittelt. Durch eine Kollisionsüberwachungseinheit (28) wird überprüft, ob sich die beiden Aktionsbereiche (58, 60) überschneiden (62). Gegebenenfalls wird der Roboter (14) vom Arbeitsmodus in einen Sicherheitsmodus umgeschaltet.
Description
Beschreibung
Roboteranordnung und Verfahren zum Steuern eines Roboters Die Erfindung betrifft einen Roboter, welcher in einem Arbeitsmodus betreibbar ist, in welchem ein Teil des Roboters mit einer Geschwindigkeit bewegt wird, bei welcher ein Ver¬ letzungsrisiko für eine Person besteht, falls diese mit dem Teil kollidiert. Der Roboter weist eine Sicherungseinrichtung auf, welche den Arbeitsmodus deaktiviert, falls sich die Per¬ son in einem Aktionsbereich des beweglichen Teils befindet. Zu der Erfindung gehört auch ein Verfahren zum Steuern des Roboters. Einsetzbar ist der Roboter beispielsweise in einem Handling-System.
Handling-Systeme und ähnliche moderne Arbeitsplätze erfordern in der Fertigung immer häufiger Situationen, in denen eine effiziente Zusammenarbeit zwischen einem Menschen und einem Roboter erforderlich ist. Je enger diese Zusammenarbeit er- folgen kann, desto effizienter ist sie in der Regel. Das Arbeiten in einem gemeinsamen Arbeitsraum ist jedoch mit großen Gefahren für den Menschen verbunden. Handelsübliche Industrieroboter können eine derart hohe Masse der beweglichen Teile aufweisen und eine Bewegungsgeschwindigkeit derselben er- zeugen, dass die Verletzungsgefahr bei einer Kollision mit einem Menschen für diesen äußerst hoch ist. Um hier Schutz zu gewährleisten, kann vorgesehen sein, durch eine Sensorik des Roboters (beispielsweise Näherungssensoren, Lichtschranken oder Kameras) zu erkennen, wenn ein Mensch zu nahe an den Ro- boter herantritt. Gegebenenfalls wird der Roboter dann ver¬ langsamt, gestoppt oder wegbewegt, um so die Gefahrensituati¬ on zu entschärfen.
Um die Gefahr einer Kollision sicher auszuschließen, muss der entsprechende Sicherheitsabstand verhältnismäßig groß gewählt werden, bei dessen Unterschreiten der Roboter verlangsamt wird. Nur so ist gewährleistet, dass der Roboter auch im Worst-Case, wenn die Person sehr schnell in den Aktionsbe-
reich eines beweglichen Teils des Roboters eindringt, weil sie etwa stolpert, noch genügend Zeit bleibt, um das Teil rechtzeitig abbremsen zu können oder umzulenken. Da ein solcher Worst-Case allerdings nur sehr selten auftritt und im Normalfall deutlich kleinere Sicherungsabstände ausreichen würden, bedeuten solche Sicherheitsvorkehrungen, dass der Arbeitsmodus des Roboters, in welchem er ungehindert mit mög¬ lichst großer Geschwindigkeit seine Arbeit verrichtet, zu häufig unbegründet unterbrochen wird.
Eine Aufgabe der vorliegenden Erfindung ist es, ein effizientes Zusammenarbeiten einer Person und eines Roboters zu ermöglichen, ohne hierbei die Person zu gefährden. Die Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 und durch eine Roboteranordnung gemäß Patentanspruch 14 gelöst. Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens sind durch die Unteransprüche gegeben. Die Erfindung geht aus von einer Roboteranordnung, wie sie eingangs beschrieben wurde, bei welcher in einem Arbeitsmodus des Roboters ein Teil desselben mit einer Geschwindigkeit be¬ wegt wird, bei welcher ein Verletzungsrisiko für eine Person besteht, falls diese mit dem Teil kollidiert. Die Roboteran- Ordnung kann beispielsweise in einem Handlingsystem der beschriebenen Art eingesetzt werden kann. Zu der Roboteranord¬ nung gehört der Roboter an sich mit seinem durch einen Antrieb des Roboters beweglichen Teil. Des Weiteren gehört zu der Roboteranordnung eine Sicherungseinrichtung mit einer Sensoreinheit zum Erfassen einer Position der Person. Bei der erfindungsgemäßen Roboteranordnung sind zusätzlich in der Sicherungseinrichtung eine Prädiktionseinheit für eine Positi¬ onsvorhersage und eine Kollisionsüberwachungseinheit für die Erkennung einer potentiellen Kollision vorgesehen. Die erfin- dungsgemäße Roboteranordnung ist dazu ausgelegt, eine der im Folgenden beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens durchzuführen.
Bei der erfindungsgemäßen Roboteranordnung sieht die Kollisionseinheit vor, den Arbeitsmodus zu deaktivieren, falls ein Eindringen der Person in einen Aktionsbereich des beweglichen Teils erkannt wird. Mit Aktionsbereich des Teils ist hierbei die Menge derjenigen Orte gemeint, die in einem vorbestimmten Zeitintervall potentiell von dem Teil angefahren werden kön¬ nen. Durch die Sensoreinheit wird dazu beispielsweise mittels einer Kamera ermittelt, wo sich die Person befindet, noch während sich die Person außerhalb des Aktionsbereichs des Teils befindet. Zusätzlich wird auch die Körperhaltung der Person ermittelt.
Durch die Prädiktionseinheit wird dann auch ein Aktionsbe- reich der Person ermittelt. Dieser ist durch Orte definiert, welche von der Person aus der ermittelten Körperhaltung heraus innerhalb eines vorgegebenen Zeitintervalls voraussicht¬ lich von ihrer momentanen Position aus erreichbar sind. Es gibt nun also zwei Aktionsbereiche, denjenigen des bewegli- chen Teils des Roboters und denjenigen der Person.
Durch die Kollisionsüberwachungseinheit wird überprüft, ob sich die beiden Aktionsbereiche überschneiden. Ist dies der Fall, so wird der Roboter vom Arbeitsmodus in einen Sicher- heitsmodus umgeschaltet, in welchem zur Vermeidung einer Verletzung der Person die Geschwindigkeit des Teils reduziert ist und/oder das Teil an der Person aktiv vorbeigeführt wird.
Der Vorteil des erfindungsgemäßen Verfahrens ist, dass der Arbeitsmodus des Roboters, in welchem er am effizientesten und damit wirtschaftlichsten arbeitet, nicht schon dann deaktiviert wird, wenn sich eine Person nur in der Nähe des Akti¬ onsbereichs des beweglichen Teils befindet, wenn also ein be¬ stimmter Sicherheitsabstand unterschritten wird. Vielmehr er- folgt nun eine Situationserkennung, durch welche überprüft wird, ob die Person überhaupt innerhalb des vorbestimmten Zeitintervalls in den Aktionsbereich des beweglichen Teils hineingelangen kann. Nur wenn dies der Fall ist, besteht auch
wirklich die Gefahr einer Kollision. Andernfalls kann das bewegliche Teil mit unverminderter Geschwindigkeit weiterbewegt werden, d.h. der Roboter im Arbeitsmodus belassen werden. Der Kerngedanke der Erfindung ist dabei, dass Bewegungen des Men- sehen physischen Beschränkungen unterliegen, die ihm innerhalb eines bestimmten Zeitintervalls nur ein Fortkommen innerhalb eines begrenzten Aktionsradius ermöglichen. Dement¬ sprechend gibt es eine Verzögerung zwischen dem Zeitpunkt, zu dem der Mensch dazu ansetzt, sich in eine Gefahrensituation zu begeben (indem er beispielsweise einen Schritt zur Seite oder eine unachtsame Armbewegung macht) und demjenigen Zeit¬ punkt, an dem die Gefahrensituation tatsächlich eintritt, weil sich der Mensch nun tatsächlich im Aktionsbereich des beweglichen Teils befindet. Mit einer hinreichend detaillier- ten Analyse der Körperhaltung der Person durch die oben erwähnte Sensoreinheit lassen sich also Gefahrensituationen frühzeitig erkennen und entschärfen. Um eine sichere Zusammenarbeit zwischen Roboter und Mensch zu ermöglichen, muss lediglich sichergestellt werden, dass der Mensch stets in ei- ner Situation ist, in der zwischen Gefahrenerkennung und Gefahrensituation hinreichend Zeit für die Sicherungseinrichtung bleibt, um geeignete Gegenmaßnahmen zu ergreifen, also das Teil abzubremsen oder dessen Trajektorie um die Person herumzuführen. So kann in vorteilhafter Weise eine Kollisi- onssituation mit hohem Verletzungsrisiko (also z.B. bei unzu¬ reichend abgebremstem Roboter) verhindert werden.
Durch die Sensoreinheit kann zusätzlich auch zumindest ein Bewegungsvektor zu zumindest einer Gliedmaße der Person und/oder des Kopfes der Person ermittelt werden. Mit Bewe¬ gungsvektor ist hier ein Datensatz gemeint, durch welchen eine Richtung und ein Beschleunigungspotential des jeweiligen Körperteils beschrieben sind. Indem nicht nur die Haltung der Person, sondern auch die Geschwindigkeit der Gliedmaßen bzw. des Kopfes bekannt ist, lässt sich der Aktionsbereich der Person genauer und als Funktion der Zeit vorhersagen.
Eine andere Weiterbildung des Verfahrens sieht vor, für die Ermittlung des Aktionsbereichs der Person durch die Sensoreinheit auch eine Muskelaktivität der Person zu ermitteln. Beispielsweise können hierzu in einem Arbeitsanzug der Person Elektroden zum Messen von elektrischen Potentialen an der
Haut der Person bereitgestellt sein. Anhand der Muskelaktivität lässt sich eine bevorstehende Bewegung der Person bereits erkennen, bevor sie optisch beispielsweise mittels einer Ka¬ mera erfasst werden kann. Im Zusammenhang mit einer Deakti- vierung eines Arbeitsmodus eines Roboters können nämlich be¬ reits Bruchteile einer Sekunde, beispielsweise eine Viertel¬ sekunde oder eine Drittelsekunde, ausreichend sein, um ein bewegliches Teil des Roboters so weit abzubremsen, dass die Verletzungsgefahr für eine Person signifikant reduziert ist. Daher ist jeder Zeitgewinn bei der Prädiktion einer Kollision ein signifikanter Vorteil.
Um eine Bewegungsrichtung der Person genauer vorherzusagen, sieht eine Ausführungsform des Verfahrens vor, für die Er- mittlung des Aktionsbereichs der Person durch die Sensoreinheit auch eine Blickrichtung der Person zu ermitteln.
Eine andere Möglichkeit der Vorhersage der Richtung einer be¬ vorstehenden Bewegung ist gegeben, wenn durch Drucksensoren der Sensoreinheit auf einen Boden, auf dem die Person steht, eine Gewichtsverteilung der Person erfasst wird. So ist beispielsweise erkennbar, ob eine Person im Begriff ist, einen Schritt nach vorne oder nach hinten zu machen. Die genaue Analyse der Situation des Menschen, d.h. nicht nur die Ermittlung von dessen Position, sondern auch seiner aktuellen Haltung und Bewegungen, erfordern eine Möglichkeit, die Sensorsignale automatisiert dahingehend zu verarbeiten, dass die Absichten des Menschen von einer computerbasierten Verar- beitungseinheit erkannt und interpretiert werden können, um auf diese Weise Gefahrensituationen zu erkennen, bevor sie akut werden. Bevorzugt wird hierzu ein Skelettmodell verwen¬ det, wie es an sich aus der Bildverarbeitung bekannt ist. Ein
solches Skelettmodell wird durch die Sensoreinheit an die be¬ obachtete Haltung der Person angepasst. Wird beispielsweise durch die Sensoreinheit die Person optisch erfasst, so kann durch einen iterativen Algorithmus das Skelettmodell z.B. durch Verändern von Kippwinkeln der Gelenke des Skeletts so lange verformt werden, bis sich die Haltung des Skelettmo¬ dells mit der beobachteten Haltung deckt. Hierdurch erhält man dann durch das angepasste Skelettmodell eine digitale Ab¬ bildung der Person in der aktuellen Körperhaltung.
Gemäß einer Weiterbildung dieses Verfahrens wird dann die durch das Skelettmodell repräsentierte Körperhaltung der Per¬ son einem von mehreren vorbestimmten Haltungstypen zugeordnet, also etwa dem Haltungstyp: „stillstehende Person" oder „Sprunghaltung". Für diese Zuordnung werden aktuelle Stellungswerte von Gelenkpunkten des Skelettmodells, also bei¬ spielsweise der Knick- oder Beugewinkel eines Knies des Ske¬ lettmodells, mit mehreren vorbestimmten Intervallen von möglichen Stellungswerten verglichen. So kann beispielsweise er- kannt werden, ob das Knie gestreckt ist, leicht angewinkelt oder stark gebeugt. Aus der Gesamtheit der aktuellen Stel¬ lungswerte, also Informationen zu den Knickwinkeln beider Knie, der Krümmung der Wirbelsäule und der übrigen Gelenke des Skelettmodells, kann dann der Haltungstyp ermittelt wer- den. Auf Grundlage des ermittelten Haltungstyps kann dann durch die Prädiktionseinheit eine Bewegung der Person und da¬ mit deren Aktionsbereich ermittelt werden. Steht sie beispielsweise aufrecht und bewegt sich nicht, so kann sie in dem vorbestimmten Zeitintervall, beispielsweise 0,5 Sekunden oder 1 Sekunde, nicht so weit nach vorne gelangen als es ihr ausgehend von einer Sprunghaltung möglich wäre.
Gemäß einer Weiterbildung des Verfahrens wird durch die Sensoreinheit in ähnlicher Weise von dem Roboter zumindest des- sen bewegliches Teil durch ein Skelettmodell nachgebildet. Hierdurch ergibt sich der Vorteil, dass kein expliziter
Zugriff auf elektronische Positionsinformationen des Roboters nötig ist, dass also die Stellung des Roboters ohne eine Da-
tenanbindung zum Roboter von einer externen Sensoreinheit möglich ist. Somit ist keine technische Anpassung des Robo¬ ters nötig, damit dieser seine Positionsinformation ausgeben kann. Auch die Sensoreinheit muss nicht für eine Kommunikati- on mit dem Roboter ausgelegt werden.
Bei dem erfindungsgemäßen Verfahren können neben Sensorinformationen noch weitere Informationen bei der Ermittlung des Aktionsbereichs berücksichtigt werden.
Führt die Person beispielsweise eine Montage eines Werkstücks durch, so sind hierzu in der Regel fest vorgeschriebene Ar¬ beitsschritte auszuführen. Sind diese Arbeitsschritte be¬ kannt, so kann beispielsweise vorhergesagt werden, wann die Person neben sich greifen wird, um ein Werkzeug aufzunehmen, das sie zum Ausführen des nächsten Arbeitsschrittes benötigt. Entsprechend kann gemäß einer Weiterbildung des Verfahrens durch die Prädiktionseinheit eine Bewegung der Person auf der Grundlage einer Arbeitsvorgangsbeschreibung vorhergesagt wer- den, durch welche eine Abfolge von Arbeitsschritten beschrie¬ ben ist, die von der Person in einer Umgebung des Roboters auszuführen sind.
In ähnlicher Weise kann gemäß einer anderen Weiterbildung des Verfahrens durch die Prädiktionseinheit eine Bewegung der Person auf der Grundlage von Verhaltensregeln vorhergesagt werden, welche für ein Verhalten der Person in einer Umgebung des Roboters festgelegt wurden, also z.B. Verkehrsregeln. Handelt es sich bei dem Roboter beispielsweise um ein Förder- zeug, das in einer Werkshalle fährt, in welcher Personen stets Vorrang haben, so ist absehbar, dass eine Person nicht anhalten wird, wenn sie den Weg des Roboters kreuzt.
Bei der Berücksichtigung der Bewegung des Roboters selbst, also dessen beweglichen Teils, kann durch die Prädiktionseinheit die Programmierung des Roboters berücksichtigt werden, um so eine noch präzisere Gefahrenanalyse zu erhalten. So ist insbesondere vorgesehen, in diesem Fall den Aktionsbereich
des beweglichen Teils als Funktion der Zeit beim Überprüfen der Überschneidung zugrunde zulegen. Da die Trajektorie des Teils anhand der Programmierung sehr genau ermittelbar ist, kann so beispielsweise vorhergesagt werden, dass sich das Teil von einem bestimmten Ort wegbewegt haben wird, wenn die Person diesen Ort erreicht. In einem solchen Fall muss der Arbeitsmodus also nicht deaktiviert werden.
Zur Ermittlung des Aktionsbereichs der Person wird, wie be- reits ausgeführt, ein vorbestimmtes Zeitintervall zugrunde gelegt. Besonders zweckmäßig ist es hierbei, dass das Zeitin¬ tervall einer Übergangsdauer entspricht, welche der Roboter benötigt, um vom Arbeitsmodus in den Sicherheitsmodus zu wechseln. Es kann sich also beispielsweise um diejenige Zeit- dauer handeln, die zum Abbremsen des beweglichen Teils auf eine Geschwindigkeit nötig ist, bei welcher eine Kollision mit der Person kein Verletzungsrisiko mehr birgt.
Um gegebenenfalls das Unterbrechen des Arbeitsmodus zu ver- meiden, obwohl eine potentielle Kollision erkannt wurde, kann vorgesehen sein, dass der Roboter nicht sofort in den Sicherheitsmodus umgeschaltet wird, wenn eine Überschneidung der Aktionsbereiche der Person und des beweglichen Teils erkannt wird. Eine Weiterbildung des Verfahrens sieht stattdessen vor, durch die Kollisionsüberwachungseinheit eine Zeitdauer zu ermitteln, wann die Person den Aktionsbereich des Teils erreicht. Das Umschalten wird dann derart verzögert begonnen, dass der Umschaltvorgang erst bei Ablauf der ermittelten Zeitdauer beendet ist, aber nicht wesentlich früher. Die er- mittelte Zeitdauer entspricht dann der Verzögerungszeit plus die Umschaltdauer. Mit anderen Worten wird beispielsweise das bewegte Teil nicht sofort bei Erkennen der Überschneidung der Aktionsbereiche angehalten, sondern erst dann, wenn die verbleibende Zeit bis zur vorhergesagten Kollision gerade noch ausreicht, um im Kollisionszeitpunkt das Teil z.B. zum Stillstand gebracht zu haben. Wird dann zwischenzeitlich, d.h. vor dem Umschalten, erkannt, dass die Person doch eine andere Bewegung ausführt, als zunächst vorhergesagt wurde,
kann das Umschalten gegebenenfalls unterbleiben und der Roboter durchgehend im Arbeitsmodus weiterbetrieben werden.
Hierzu und auch im Zusammenhang mit den übrigen Weiterbildun- gen wird natürlich bevorzugt der Aktionsbereich der Person kontinuierlich, d.h. wiederholt zu vorbestimmten Zeitpunkten, ermittelt und entsprechend die Kollisionsüberwachung durchge¬ führt . Im Folgenden wird die Erfindung noch einmal genauer anhand eines konkreten Ausführungsbeispiels erläutert. Dazu zeigt:
FIG 1 eine schematische Darstellung eines Arbeitsraums, in welchem sich eine Person und eine Ausführungs- form der erfindungsgemäßen Roboteranordnung befinden,
FIG 2 eine schematische Darstellung des Arbeitsraums von
FIG 1, wobei sich die Person in einer anderen Situ- ation befindet,
FIG 3 eine Skizze, in welcher Parameter eines Skelettmo¬ dells veranschaulicht sind, und FIG 4 ein Flussdiagramm zu einer Ausführungsform des erfindungsgemäßen Verfahrens .
Bei den im Folgenden erläuterten Beispielen stellen die beschriebenen Komponenten der Roboteranordnung und die be- schriebenen Schritte des Verfahrens jeweils einzelne, unab¬ hängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzu- sehen sind. Des Weiteren sind die beschriebenen Ausführungs¬ formen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
In FIG 1 ist eine Draufsicht auf einen Arbeitsbereich 10 ge¬ zeigt, in welchem sich eine Person 12 und ein Roboter 14 befinden. Ein Arm 16 des Roboters 14 wird durch einen (nicht dargestellten) Antrieb des Roboters 14 während eines Arbeits- prozesses verschwenkt. Die Person 12 muss sich während des Arbeitsprozesses ebenfalls in dem Arbeitsraum 10 aufhalten, weil sie beispielsweise Werkstücke dem Roboterarm 16 anreicht oder von diesem angereicht bekommt. Der Roboter 14 und die Person 12 müssen in dem Arbeitsraum 10 also eng zusammenar- beiten können. Die Person 12 soll hierbei aber nicht Gefahr laufen, durch den in der Regel schnell bewegten Roboterarm 16 getroffen und hierdurch verletzt zu werden. Es ist deshalb eine Sicherungseinrichtung 18 bereitgestellt, welche die Be¬ wegungsgeschwindigkeit des Roboterarms 16 reduziert oder ihn sogar anhält oder aber auch die Bewegungsrichtung des Roboterarms 16 verändert, wann immer durch die Sicherungseinrichtung 18 erkannt wird, dass die Person 12 Gefahr läuft, mit dem schnell bewegten Roboterarm 16 zu kollidieren. Die Sicherungseinrichtung 18 umfasst eine Sensorik 20, die beispielsweise eine Kamera 22 und eine Bildauswertung 24 um¬ fassen kann, eine Prädiktionseinrichtung 26, welche für ein vorbestimmtes Zeitintervall Bewegungen der Person 12 voraus¬ sagt, und eine Kollisionsüberwachung 28, welche bei einer Vorhersage einer möglichen Kollision den Roboter 14 ansteuert, um zumindest eine der beschriebenen Schutzmaßnahmen einzuleiten. Die Bildauswertung 24, die Prädiktionseinrichtung 26 und die Kollisionsüberwachung 28 können beispielsweise in Form von Programmen bereitgestellt sein, die von einem Über- wachungscomputer 30 ausgeführt werden.
Diese Überwachungsroutine, welche durch die Sicherungsein¬ richtung 18 insgesamt ausgeführt wird, ist in dem Flussschau¬ bild von FIG 4 veranschaulicht.
In einem Schritt S10 wird mit der Kamera 22 und einem Situa- tionserkennungsalgorithmus der Bildauswertung 24 die Gefah¬ rensituation nicht nur aufgrund der Nähe des Menschen zum Ro-
boter beurteilt, sondern auch unter Berücksichtigung von Informationen über die aktuelle Körperhaltung und Bewegung der Person 12. Zur Veranschaulichung ist in FIG 1 das Kamerabild 32 gezeigt, welches die Person 12 aus dem Blickwinkel der Ka- mera 22 zeigt. Um die Körperhaltung der Person 12 zu erkennen, kann beispielsweise das System KINECT® des Unternehmens Microsoft® oder das System NiTE® des Unternehmens PrimeSense® verwendet werden. Erkennungssysteme dieser Art können auf der Grundlage des Kamerabildes 32 sowie anhand von Signalen wei- terer Sensoren die Körperhaltung der Person 12 sowie die Bewegungsrichtungen der Gliedmaßen und des Kopfes der Person relativ zueinander sowie die absolute Bewegung der Person erkennen .
Die erkannten Stellungen der Körperteile und die erkannten Bewegungen werden mittels eines Skelettmodells beschrieben. In FIG 3 ist ein Parametersatz eines solchen Skelettmodells veranschaulicht. Durch das Skelettmodell 34 können Informati¬ onen zu beispielsweise dem Körperrumpf 36, den Armen 38, 40 und den Beine 42, 44 wiedergegeben sein. In dem Skelettmodell 34 der FIG 3 ist beispielhaft zu dem linken Arm 40 ein Bewe¬ gungsvektor 46 angegeben, welcher besagt, dass der Unterarm 48 des linken Arms 40 sich nach oben mit einer bestimmten Geschwindigkeit bewegt. Zu einzelnen Gelenkpunkten 50, 52 kann angegeben sein, in welchem Beugewinkel 54, 56 die Gelenke ge¬ beugt sind. In FIG 3 ist der Übersichtlichkeit halber nur zu den Kniegelenken 50, 52 ein Bezugszeichen angegeben.
Das Skelettmodell 34 wird durch die Bildauswertung 24 mit dem Abbild der Person 12 im Kamerabild 32 in Deckung gebracht. Hierzu werden z.B. die Werte der Parameter des Skelettmo¬ dells, also etwa die Beugewinkel 54, 56 verändert und die je¬ weils resultierende Haltung des Skeletts mit der Körperhal¬ tung der Person 12 im Kamerabild 32 verglichen, bis die Hal- tung des Skeletts mit derjenigen der Person 12 übereinstimmt. Bei der Bildauswertung 24 kann es sich auch um eine proprietäre Bildauswertung handeln, z.B. das Produkt Kinect-SDK ® oder Prime Sense NITE ®.
Anhand eines anschließenden Vergleichs der Werte für z.B. die Beugewinkel 54, 56 mit einer Mehrzahl von vorbestimmten Winkelintervallen wird durch die Bilderkennung 24 erkannt, dass die Knie 50, 52 gestreckt sind und die Person also gerade steht. Zu den Gliedmaßen 38 bis 44 und dem Kopf der Person erkennt die Bildauswertung 24, dass die Bewegungsvektoren sehr klein sind. Auch ein absoluter Bewegungsvektor für die Gesamtkörperbewegung ist gleich Null. All diesen Angaben ord- net die Bildauswertung 24 einen Haltungstyp zu, der hier als „stillstehende Person" bezeichnet ist. Diese Information wird an die Prädiktionseinheit 26 übertragen. Für die Haltungserkennung und Bewegungserkennung können auch spezielle Sensoren zum Messen relevanter Muskelaktivitäten der Person 12 vorge- sehen sein.
Durch die Prädiktionseinheit 26 wird überprüft, ob die Person sich in eine Gefahrensituation hineinbewegt, sie also dem Ro¬ boterarm 16 zunahe zu kommen droht. Durch Sensoren für die Muskelaktivitäten ist es sogar möglich, eine noch frühere Erkennung durchzuführen. Durch die Prädiktionseinheit 26 werden für die Auswertung der Situation anhand der Informationen über die Körperhaltung und Bewegung der Person 12 Aktionsradien Rl, R2 bestimmt. Der Betrag der Radien Rl, R2 kann z.B. diejenige Distanz sein, welche die Person 12 aus ihrer momentanen Körperhaltung heraus und unter Berücksichtigung der momentanen Bewegung in einem vorgegebenen Zeitintervall mit ihrem ganzen Körper oder aber auch nur mit einer Gliedmaße zurücklegen kann, wenn sie die größte Anstrengung hierzu unter- nimmt oder auch beispielsweise stolpert und sich deshalb schnell bewegt. Durch die Aktionsradien Rl, R2 sind zwei Teilbereiche Bl, B2 definiert, welche die mögliche Bewegung der Person 12 nach hinten (Bl) bzw. nach vorne (B2) beschreiben. Insgesamt ist durch die Teilbereiche Bl, B2 ein Aktions- bereich 58 der Person 12 beschrieben. Der Aktionsbereich 58 kann also durch das physisch maximal mögliche Bewegungsverhalten der Person 12 bestimmt sein.
Das für die Ermittlung des Aktionsbereichs 58 zugrunde geleg¬ te Zeitintervall ist auf den Wert gesetzt, welcher der Zeit¬ dauer entspricht, welche der Roboter benötigt, um sich in ei¬ nen ungefährlichen Zustand zu versetzen, also beispielsweise den Roboterarm 16 zum Stillstand zu bringen. Das Zeitintervall ist im Folgenden als Beobachtungsintervall bezeichnet.
Auch dem Roboter 14 wird ein Aktionsbereich 60 zugeordnet, welcher beispielsweise durch die möglichen Bewegungen des Ro- boterarms 16 und durch die Größe der von dem Roboterarm 16 währenddessen transportierten (nicht dargestellten) Werkstücke bestimmt sein kann.
Die Prädiktionseinheit 26 kann dann eine dynamische und situ- ationsabhängige Gefährdungsklassifizierung durchführen. So kann in einem Schritt S12 vorgesehen sein, dass durch die Prädiktionseinheit 26 auf der Grundlage der von der Bildaus¬ wertung 24 empfangenen Daten eine Risikoklasse bestimmt wird, in welcher sich der Mensch derzeit befindet. So kann eine Ri- sikoklasse RK0 bestimmt sein, die keine Gefahr einer Kollisi¬ on anzeigt. Auch im sogenannten Worst-Case kann innerhalb des Beobachtungsintervalls keine Situation eintreten, in der eine Kollisionsgefahr besteht. Eine Risikoklasse RK1 besagt, dass keine akute Gefahr einer Kollision besteht, die Person 12 aber die Möglichkeit hat, schnell in Kollisionsräume einzu¬ dringen, so dass der Roboter entsprechend vorbereitet sein muss. Diese Risikoklasse kann in Abhängigkeit von der Zeit, die der Mensch mindestens zum Eindringen in den Gefahrenraum benötigt, weiter unterteilt sein. So kann der Roboter bei- spielsweise weitgehend ungestört arbeiten, wenn dieser Über¬ gang zwar theoretisch möglich ist, der Mensch aber noch keine Anstalten gemacht hat, diesen Übergang zu vollziehen und deshalb sicher ist, dass ein Übergang rechtzeitig erkannt werden kann. Sitzt beispielsweise eine Person an einem Arbeitstisch und hat beide Beine auf dem Boden, so besteht prinzipiell keine Gefahr, dass die Person sich plötzlich bewegt; hat die Person aber gerade ihr rechtes Bein leicht angehoben und bewegt sie dieses nach rechts, so deutet dies an, dass sie mit
einem Schritt nach rechts in einen Gefahrenraum kommen könnte. Daher sollte in einer solchen Situation ein bewegliches Teil eines Roboters in einem Schritt S14 bereits jetzt entschleunigt werden.
Eine Risikoklasse RK2 besagt, dass sich die Person bereits zu nahe an dem Roboter befindet, also hier z.B. im Aktionsbe¬ reich 60, so dass akute Kollisionsgefahr besteht. Der Roboter muss bei Erkennen der Risikoklasse RK2 so schnell wie möglich in einen sicheren Modus verbracht werden, also z.B.
entschleunigt werden oder sogar angehalten. Wenn nicht bereits in der Übergangsphase, also während des Vorliegens der Risikoklasse RK1, Gegenmaßnahmen eingeleitet wurden, wird eventuell die Reaktionsgeschwindigkeit nicht ausreichen, so dass schwere Verletzungen entstehen können. Der Prozess aus Situationserkennung, Gefährdungsklassifizierung und gegebenenfalls Maßnahmenergreifung der Sicherungseinrichtung 18 wird kontinuierlich durchgeführt, d.h. es gibt eine Rekursion R.
In dem in FIG 1 veranschaulichten Beispiel ist der Aktionsbereich 58 verhältnismäßig klein, da die Person 12 ruhig steht. Innerhalb des Beobachtungsintervalls kann die Person 12 also nicht in den unmittelbaren Gefahrenbereich des Roboters kom- men, der durch den Aktionsbereich 60 definiert ist. Dies wird daran erkannt, dass sich die Aktionsbereiche 58, 60 nicht überscheiden. Daher kann der Roboter 14 ungestört arbeiten, d.h. er muss die Bewegungen seines Roboterarms 16 nicht ver¬ langsamen, so lange die Person 12 ihre Körperhaltung beibe- hält und sich nicht ihr Aktionsbereich 58 ändert. Durch die Rekursion R wird die Berechnung kontinuierlich durchgeführt, so dass die Risikoklassifizierung stets aktuell ist. Bei rei¬ ner Verwendung einer bisherigen Standardtechnologie mit reiner Abstandsmessung wäre dagegen diese Situation der Risiko- klasse RK2 zuzuordnen, da in diesem Fall diese „Grauzone" nicht genutzt werden könnte. Erst durch Verwendung zusätzlicher Methoden basierend dem erfindungsgemäßen Ansatz kann diese RK1 genauer analysiert werden, um zu entscheiden, wel-
che Situation als „keine Gefahr" bzw. als „Handlungen notwendig" klassifiziert werden kann.
Mögliche Gegenmaßnahmen, die im Schritt S14 getroffen werden können, sind eine Limitierung der Geschwindigkeit und der durch den Roboterarm 16 erzeugten Kräfte. Es können auch Warnsignale ausgegeben werden. Für die Geschwindigkeitsredu¬ zierung können auch zulässige Grenzwerte für die aktuelle Be- wegungstraj ektorie des Roboterarms 16 abgeleitet werden.
Anhand von FIG 2 ist beispielhaft erläutert, wie die Siche¬ rungseinrichtung 18 bei einem Wechsel der Körperhaltung der Person 12 reagieren kann. In dem Beispiel von FIG 2 hat die Person 12 eine Sprunghaltung angenommen. Beim Anpassen des Skelettmodells 34 an die in dem Kamerabild 32 erkennbare Kör¬ perhaltung der Person 12 ergibt sich für die Beugewinkel 54, 56 der Knie 50, 52 ein sehr kleiner Wert, d.h. ein spitzer Winkel. Auch die übrigen Beugewinkel der Gelenke sind ent¬ sprechend verändert. Durch Vergleichen der aktuellen Werte für die einzelnen Beugewinkel mit den vorbestimmten Interval¬ len für die Winkelwerte wird durch die Bildauswertung 24 insgesamt erkannt, dass die Person sich in einer kauernden Haltung befindet und zu einem Sprung ansetzen könnte. Entspre¬ chend wird die Gesamtheit der aktuellen Werte der Parameter des Skelettmodells 34 im Schritt S10 einem Haltungstyp „Sprunghaltung" zugeordnet.
Durch die Prädiktionseinheit 26 wird ausgehend von der
Sprunghaltung im Schritt S12 ein Aktionsbereich 58 der Person 12 ermittelt, der größer ist als der Aktionsbereich, wie er sich für eine stillstehende Person ergibt. Grund dafür ist, dass ausgehend von der Sprunghaltung innerhalb des Beobachtungsintervalls es für die Person 12 möglich ist, eine größe¬ re Distanz zurückzulegen.
Die Kollisionsüberwachung 28 erkennt, dass es einen Überschneidungsbereich 62 zwischen dem Aktionsbereich 58 der Person und dem Aktionsbereich 60 des Roboters 13 gibt. Es liegt
also die Risikoklasse RK1 vor, nämlich eine mögliche Kollisi¬ on. Entsprechend werden durch die Kollisionsüberwachung 28 z.B. Bewegungen 64 des Roboterarms 16 in Richtung auf den Überschneidungsbereich 62 hin in dem vorliegenden Beispiel blockiert. Die übrigen Bewegungen 66 kann der Roboterarm 16 dagegen ungehindert ausführen. So ergibt sich ein minimaler Eingriff in die Bewegungsfreiheit des Roboterarms 16.
Durch das Beispiel ist gezeigt, wie die Person 12 und der Ro- boter 14 ungestört eng nebeneinander arbeiten können und hierbei der Roboter 14 mit einer hohen Effizient betrieben werden kann, ohne dass die Sicherheit des Menschen darunter leiden muss.
1 η
Arbeitsraum
Person
Roboter
Roboterarm
Sicherungseinrichtung
Sensoreinheit
Kamera
Bildauswertung
Prädiktionseinheit
Kollisionsüberwachung
ÜberwachungsComputer
Kamerabild
Skelettmodell
Körperrumpf
Gliedmaßen
Bewegungsvektor
Unterarm
Kniegelenk
Beugewinkel
Aktionsbereich der Person
Aktionsbereich des Roboters
Überschneidungsbereich
Blockierte Bewegung
Zugelassene Bewegung
Bewegungsbereich
Rekursion
Aktionsradius
Verfahrensschritt
Claims
1. Verfahren zum Steuern eines Roboters (14), welcher in einem Arbeitsmodus betreibbar ausgestaltet ist, in welchem ein Teil (16) des Roboters (14) mit einer Geschwindigkeit bewegt wird, bei welcher ein Verletzungsrisiko für eine Person (12) besteht, falls die Person (12) mit dem Teil (16) kollidiert, wobei der Arbeitsmodus deaktiviert wird, falls durch eine Si¬ cherungseinrichtung (18) erkannt wird, dass die Person (12) in einen Aktionsbereich (60) des beweglichen Teils (16) eindringt,
mit den Schritten:
- durch eine Sensoreinheit (20) der Sicherungseinrichtung (18) Ermitteln (S10) einer Position und einer Körperhaltung der Person (12), während sich die Person (12) außerhalb des Aktionsbereichs (60) des Teils (16) befindet,
- durch eine Prädiktionseinheit (26) der Sicherungseinrichtung (18) Ermitteln (S12) eines Aktionsbereichs (58) der Per¬ son (12), welcher durch Orte definiert ist, welche von der Person (12) aus der ermittelten Körperhaltung heraus innerhalb eines vorgegebenen Zeitintervalls voraussichtlich erreichbar sind,
- durch eine Kollisionsüberwachungseinheit (28) der Siche¬ rungseinrichtung (18) Überprüfen (S14), ob sich der Aktions- bereich (58) der Person (12) und der Aktionsbereich (60) des beweglichen Teils (16) überschneiden (62) und gegebenenfalls Umschalten des Roboters (14) vom Arbeitsmodus in einen Si¬ cherheitsmodus, in welchem zur Vermeidung einer Verletzung der Person (12) die Geschwindigkeit des Teils (16) reduziert ist und/oder das Teil (16) an der Person (12) vorbeigeführt wird .
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für die Ermittlung des Aktionsbereichs (58) der Person (12) durch die Sensoreinheit (20) zumindest ein Bewegungsvektor (46) zu zumindest einer Gliedmaße (38 bis 44) und/oder des Kopfes der Person (12) ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass für die Ermittlung des Aktionsbereichs (58) der Person (12) durch die Sensoreinheit (20) eine Muskelaktivität der Person (12) ermittelt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für die Ermittlung des Aktionsbereichs (58) der Person (12) durch die Sensoreinheit (20) eine Blick¬ richtung der Person (12) ermittelt wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für die Ermittlung des Aktionsbereichs (58) durch Drucksensoren der Sensoreinheit (20) auf einem Bo¬ den, auf welchem die Person (12) steht, eine Gewichtsvertei- lung der Person (12) erfasst wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch die Sensoreinheit (20) ein Ske¬ lettmodell (34) an eine beobachtete Körperhaltung der Person (12) angepasst wird.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass aktuelle Stellungswerte (54, 56) von Gelenkpunkten (50, 52) des Skelettmodells (34) mit vorbestimmten Intervallen von möglichen Stellungswerten verglichen werden und die Gesamtheit der aktuellen Stellungswerte (54, 56) einem von mehreren vorbestimmten Haltungstypen zugeordnet wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch die Sensoreinheit (20) von dem Ro¬ boter (14) zumindest dessen bewegliches Teil (16) durch ein Skelettmodell nachgebildet wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch die Prädiktionseinheit (26) eine
Bewegung der Person (12) auf der Grundlage einer Arbeitsvorgangsbeschreibung vorhergesagt wird, durch welche eine Abfol¬ ge von Arbeitschritten beschrieben ist, die von der Person
(12) in einer Umgebung (10) des Roboters (14) auszuführen sind .
10. Verfahren nach einem der vorhergehenden Ansprüche, da- durch gekennzeichnet, dass durch die Prädiktionseinheit (26) eine Bewegung der Person (12) auf der Grundlage von Verhaltensregeln vorhergesagt wird, welche für ein Verhalten der Person (12) in einer Umgebung (10) des Roboters (16) festge¬ legt wurden.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch die Prädiktionseinheit (26) eine Bewegung des Teils (16) des Roboters (14) auf Grundlage einer Programmierung des Roboters (14) ermittelt wird und der Aktionsbereich (60) des Teils (16) als Funktion der Zeit beim Überprüfen der Überschneidung (62) zugrundegelegt wird.
12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch die Prädiktionseinheit (26) als Zeitintervall eine Übergangsdauer verwendet wird, welche der Roboter benötigt, um vom Arbeitsmodus in den Sicherheits¬ modus zu wechseln.
13. Verfahren nach einem der vorhergehenden Ansprüche, da- durch gekennzeichnet, dass durch die Kollisionsüberwachungs- einheit (28) eine Zeitdauer bis zum voraussichtlichen Eindringen der Person in den Aktionsbereiche (60) des Teils er¬ mittelt wird und das Umschalten derart verzögert begonnen wird, dass bei Ablauf der Zeitdauer der Umschaltvorgang been- det ist.
14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Ermitteln des Aktionsbereichs (58) der Person (12) und die Kollisionsüberwachung wiederholt (R) zu vorbestimmten Zeitpunkten durchgeführt wird.
15. Roboteranordnung für ein Handling-System, umfassend:
- einen Roboter (16) mit einem durch einen Antrieb des Roboters (14) beweglichen Teil (16),
- eine Sicherungseinrichtung (18) mit einer Sensoreinheit (20) zum Erfassen einer Position einer Person (12),
dadurch gekennzeichnet, dass die Sicherungseinrichtung (18) zusätzlich eine Prädiktionseinheit (26) und eine Kollisions- überwachungseinheit (28) aufweist und dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12735849.7A EP2838698B2 (de) | 2012-07-10 | 2012-07-10 | Roboteranordnung und verfahren zum steuern eines roboters |
PCT/EP2012/063500 WO2014008929A1 (de) | 2012-07-10 | 2012-07-10 | Roboteranordnung und verfahren zum steuern eines roboters |
US14/414,050 US9694497B2 (en) | 2012-07-10 | 2012-07-10 | Robot arrangement and method for controlling a robot |
CN201280074622.8A CN104428107B (zh) | 2012-07-10 | 2012-07-10 | 机器人布置和用于控制机器人的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2012/063500 WO2014008929A1 (de) | 2012-07-10 | 2012-07-10 | Roboteranordnung und verfahren zum steuern eines roboters |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014008929A1 true WO2014008929A1 (de) | 2014-01-16 |
Family
ID=46516726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2012/063500 WO2014008929A1 (de) | 2012-07-10 | 2012-07-10 | Roboteranordnung und verfahren zum steuern eines roboters |
Country Status (4)
Country | Link |
---|---|
US (1) | US9694497B2 (de) |
EP (1) | EP2838698B2 (de) |
CN (1) | CN104428107B (de) |
WO (1) | WO2014008929A1 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015114089A1 (de) * | 2014-01-30 | 2015-08-06 | Kuka Systems Gmbh | Sicherheitseinrichtung und sicherheitsverfahren |
JP2016209991A (ja) * | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | ロボットの制御装置、制御方法およびシステム |
JP2017512078A (ja) * | 2014-02-05 | 2017-05-18 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 動的な仮想の衝突対象物についてのシステム及び方法 |
DE102016104940A1 (de) | 2016-03-17 | 2017-09-21 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Schutzvorrichtung für einen Effektor eines Manipulators, Vorrichtung zum Manipulieren von Werkstücken und Verfahren zum Betätigen einer Vorrichtung zum Manipulieren von Werkstücken |
CN107520843A (zh) * | 2017-08-22 | 2017-12-29 | 南京野兽达达网络科技有限公司 | 一种类人多自由度机器人的动作训练方法 |
KR20180013757A (ko) * | 2016-07-28 | 2018-02-07 | 더 보잉 컴파니 | 유압 로봇들 부근에 있을 때 움직임을 탐지하기 위한 인간 모션 센서들의 사용 |
EP3363602A1 (de) * | 2017-02-15 | 2018-08-22 | Omron Corporation | Überwachungssystem, überwachungsvorrichtung und überwachungsverfahren |
JP2018158393A (ja) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | 安全制御装置、安全制御方法およびプログラム |
EP3467601A3 (de) * | 2017-10-06 | 2019-07-24 | Pilz GmbH & Co. KG | Sicherheitssystem zur absicherung eines kooperativen betriebs von menschen, robotern und maschinen |
US10556353B2 (en) | 2016-08-12 | 2020-02-11 | Industrial Technology Research Institute | Robot arm control device and robot arm operation method |
WO2020144852A1 (ja) * | 2019-01-11 | 2020-07-16 | 株式会社Fuji | 制御装置、ワーク作業装置、ワーク作業システム及び制御方法 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9643316B2 (en) | 2009-10-27 | 2017-05-09 | Battelle Memorial Institute | Semi-autonomous multi-use robot system and method of operation |
TWI547355B (zh) * | 2013-11-11 | 2016-09-01 | 財團法人工業技術研究院 | 人機共生安全監控系統及其方法 |
US9902061B1 (en) * | 2014-08-25 | 2018-02-27 | X Development Llc | Robot to human feedback |
US9914218B2 (en) * | 2015-01-30 | 2018-03-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and apparatuses for responding to a detected event by a robot |
EP3261571B1 (de) | 2015-02-25 | 2023-03-08 | Mako Surgical Corporation | Navigationssysteme und verfahren zur verminderung von verfolgungsunterbrechungen während eines chirurgischen eingriffs |
CN105150189B (zh) * | 2015-06-19 | 2017-01-18 | 北京云迹科技有限公司 | 一种轮式机器人驱动模式的无缝切换方法 |
JP6591818B2 (ja) * | 2015-07-30 | 2019-10-16 | ファナック株式会社 | 産業用ロボットシステムおよびその制御方法 |
EP3150302B1 (de) | 2015-09-30 | 2019-07-17 | Siemens Aktiengesellschaft | Verfahren zur steuerung der laserstrahlauslenkung |
JP6657859B2 (ja) * | 2015-11-30 | 2020-03-04 | 株式会社デンソーウェーブ | ロボット安全システム |
JP6504073B2 (ja) * | 2016-02-15 | 2019-04-24 | オムロン株式会社 | 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム |
JP6504072B2 (ja) * | 2016-02-15 | 2019-04-24 | オムロン株式会社 | 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム |
JP6481635B2 (ja) * | 2016-02-15 | 2019-03-13 | オムロン株式会社 | 接触判定装置、制御装置、接触判定システム、接触判定方法及び接触判定プログラム |
US10924881B2 (en) * | 2016-03-03 | 2021-02-16 | Husqvarna Ab | Device for determining construction device and worker position |
JP6733239B2 (ja) * | 2016-03-18 | 2020-07-29 | セイコーエプソン株式会社 | 制御装置及びロボットシステム |
FR3050393B1 (fr) * | 2016-04-22 | 2021-03-19 | Bosch Gmbh Robert | Poste de travail et unite de commande de son fonctionnement |
US9868214B2 (en) * | 2016-06-20 | 2018-01-16 | X Development Llc | Localization of a mobile system |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
CN106217407B (zh) * | 2016-07-21 | 2018-12-11 | 青岛欧开智能系统有限公司 | 一种具备双重安全的机械臂 |
WO2018018574A1 (zh) * | 2016-07-29 | 2018-02-01 | 罗伯特·博世有限公司 | 人员保护系统及其运行方法 |
CN107717981B (zh) | 2016-08-12 | 2021-01-05 | 财团法人工业技术研究院 | 机械手臂的控制装置及其教导系统与方法 |
TWI651175B (zh) * | 2016-08-12 | 2019-02-21 | 財團法人工業技術研究院 | 機械手臂之控制裝置及其教導系統與方法 |
CN106406312B (zh) * | 2016-10-14 | 2017-12-26 | 平安科技(深圳)有限公司 | 导览机器人及其移动区域标定方法 |
JP6822069B2 (ja) * | 2016-11-01 | 2021-01-27 | オムロン株式会社 | 監視システム、監視装置、および監視方法 |
CN106514067A (zh) * | 2016-11-01 | 2017-03-22 | 河池学院 | 一种具有报警装置的焊接机器人的控制方法 |
CN106425198A (zh) * | 2016-11-01 | 2017-02-22 | 河池学院 | 一种焊接机器人的控制方法 |
CN106670694A (zh) * | 2016-11-23 | 2017-05-17 | 河池学院 | 具有轨道监控功能的焊接机器人 |
US10766140B2 (en) | 2017-04-13 | 2020-09-08 | Battelle Memorial Institute | Teach mode collision avoidance system and method for industrial robotic manipulators |
EP3622364B1 (de) * | 2017-05-09 | 2023-07-05 | Brain Corporation | System und verfahren zur bewegungssteuerung von einem roboter |
JP2019000930A (ja) * | 2017-06-13 | 2019-01-10 | 住友理工株式会社 | 安全装置 |
EP3437804A1 (de) | 2017-08-02 | 2019-02-06 | ABB Schweiz AG | Robotersteuerungsverfahren |
DE102017213658A1 (de) * | 2017-08-07 | 2019-02-07 | Robert Bosch Gmbh | Handhabungsanordnung mit einer Handhabungseinrichtung zur Durchführung mindestens eines Arbeitsschritts sowie Verfahren und Computerprogramm |
JP6633584B2 (ja) * | 2017-10-02 | 2020-01-22 | ファナック株式会社 | ロボットシステム |
JP6633587B2 (ja) * | 2017-10-05 | 2020-01-22 | ファナック株式会社 | ロボットの構成部材の速度を制限する制御装置 |
EP3473387A1 (de) * | 2017-10-20 | 2019-04-24 | ABB Schweiz AG | Roboterüberwachungssystem |
WO2019080996A1 (en) | 2017-10-24 | 2019-05-02 | Abb Schweiz Ag | METHOD FOR MONITORING WORK AREA, ROBOT SYSTEM, AND CONTROL SYSTEM |
DE102017221305A1 (de) * | 2017-11-23 | 2019-05-23 | Robert Bosch Gmbh | Verfahren zum Betreiben eines kollaborativen Roboters |
US11571815B2 (en) | 2017-12-21 | 2023-02-07 | Magna International Inc. | Safety control module for a robot assembly and method of same |
CN108247617A (zh) * | 2018-04-02 | 2018-07-06 | 深圳了然视觉科技有限公司 | 一种智能机械臂系统 |
JP6748145B2 (ja) | 2018-05-15 | 2020-08-26 | ファナック株式会社 | ロボットシステム |
EP3569366B1 (de) * | 2018-05-17 | 2023-06-28 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zur robotersteuerung |
DE102018114156B3 (de) * | 2018-06-13 | 2019-11-14 | Volkswagen Aktiengesellschaft | Verfahren zur Steuerung eines Roboters, insbesondere eines Industrieroboters, sowie Vorrichtung zur Steuerung des Roboters |
US10928822B2 (en) * | 2018-07-25 | 2021-02-23 | King Fahd University Of Petroleum And Minerals | Mobile robot, method of navigating the same, and storage medium |
JP6997068B2 (ja) * | 2018-12-19 | 2022-01-17 | ファナック株式会社 | ロボット制御装置、ロボット制御システム、及びロボット制御方法 |
WO2020139105A1 (ru) * | 2018-12-26 | 2020-07-02 | Публичное Акционерное Общество "Сбербанк России" | Способ и система предиктивного избегания столкновения манипулятора с человеком |
CN109732602B (zh) * | 2019-01-08 | 2021-03-16 | 英华达(上海)科技有限公司 | 机械臂调速方法、系统、设备以及介质 |
KR20200094831A (ko) | 2019-01-22 | 2020-08-10 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
DE102019103349B3 (de) | 2019-02-11 | 2020-06-18 | Beckhoff Automation Gmbh | Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters |
WO2019172733A2 (ko) * | 2019-05-08 | 2019-09-12 | 엘지전자 주식회사 | 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법 |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
JP7260422B2 (ja) * | 2019-07-02 | 2023-04-18 | ファナック株式会社 | 異物検出装置 |
US20210053225A1 (en) * | 2019-08-23 | 2021-02-25 | Ilya A. Kriveshko | Safe operation of machinery using potential occupancy envelopes |
CN111203875B (zh) * | 2020-01-07 | 2022-08-09 | 重庆邮电大学 | 一种机械臂碰撞安全等级检测系统 |
CN111564011B (zh) * | 2020-07-20 | 2020-11-03 | 季华实验室 | 一种机械臂安全检测方法、装置、系统和电子设备 |
CN115648226B (zh) * | 2022-12-27 | 2023-03-21 | 珞石(北京)科技有限公司 | 基于任务空间分割和动态距离监控的安全人机协作方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010120139A (ja) * | 2008-11-21 | 2010-06-03 | New Industry Research Organization | 産業用ロボットの安全制御装置 |
CN102323822A (zh) * | 2011-05-09 | 2012-01-18 | 无锡引域智能机器人有限公司 | 一种避免工业机器人碰撞工人的方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10110373C2 (de) * | 2001-03-03 | 2003-03-06 | Wolfgang Daum | Verfahren und Vorrichtung zur Reinigung von Innenräumen von Automobilen |
DE10216023B4 (de) | 2002-04-11 | 2013-08-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen |
DE10218023A1 (de) | 2002-04-23 | 2003-11-06 | Bosch Gmbh Robert | Kraftstoffeinspritzeinrichtung für eine Brennkraftmaschine |
US7257237B1 (en) * | 2003-03-07 | 2007-08-14 | Sandia Corporation | Real time markerless motion tracking using linked kinematic chains |
DE10320343B4 (de) | 2003-05-07 | 2008-05-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen |
DE10324627A1 (de) | 2003-05-28 | 2005-01-05 | Daimlerchrysler Ag | Arbeitsraumüberwachung für automatisiert arbeitende Maschinen |
WO2005001768A1 (en) * | 2003-06-06 | 2005-01-06 | Psychogenics, Inc. | System and method for assessing motor and locomotor deficits and recovery therefrom |
WO2006043396A1 (ja) | 2004-10-19 | 2006-04-27 | Matsushita Electric Industrial Co., Ltd. | ロボット装置 |
JP4595555B2 (ja) * | 2005-01-20 | 2010-12-08 | ソニー株式会社 | コンテンツ再生装置およびコンテンツ再生方法 |
DE102005003827B4 (de) * | 2005-01-26 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz |
DE102006048163B4 (de) | 2006-07-31 | 2013-06-06 | Pilz Gmbh & Co. Kg | Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung |
DE102006048166A1 (de) | 2006-08-02 | 2008-02-07 | Daimler Ag | Verfahren zur Beobachtung einer Person in einem industriellen Umfeld |
ES2316012T3 (es) * | 2006-09-14 | 2009-04-01 | Abb Research Ltd. | Un metodo y dispositivo para evitar colisiones entre un robot industrial y un objeto. |
DE102007007576B4 (de) | 2007-02-15 | 2009-01-15 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Sichern eines Arbeitsraums |
EP1972416B1 (de) * | 2007-03-23 | 2018-04-25 | Honda Research Institute Europe GmbH | Roboter mit Verstopfungsvermeidungsfunktion |
DE102007033891A1 (de) | 2007-07-03 | 2009-01-08 | Christl Lauterbach | Anordnung und Verfahren zum Identifizieren und Lokalisieren einer Person oder eines Objekts |
US8286528B2 (en) * | 2008-01-22 | 2012-10-16 | Panasonic Corporation | Robot arm |
EP2110724B1 (de) | 2008-04-14 | 2012-06-06 | Siemens Aktiengesellschaft | Verfahren und Computerprogramm zur Planung einer Auswahl und Anordnung von Komponenten eines Automatisierungssystems |
US20100030532A1 (en) * | 2008-06-12 | 2010-02-04 | Jasbir Arora | System and methods for digital human model prediction and simulation |
WO2009155946A1 (en) | 2008-06-26 | 2009-12-30 | Abb Ag | Adaptive robot system |
WO2010063319A1 (en) | 2008-12-03 | 2010-06-10 | Abb Research Ltd. | A robot safety system and a method |
US8933884B2 (en) * | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
CN102686371B (zh) * | 2010-01-25 | 2015-01-14 | 松下电器产业株式会社 | 危险提示装置、危险提示系统以及危险提示方法 |
US20140031668A1 (en) * | 2010-09-08 | 2014-01-30 | Disruptive Navigational Technologies, Llc | Surgical and Medical Instrument Tracking Using a Depth-Sensing Device |
US9162720B2 (en) * | 2010-12-03 | 2015-10-20 | Disney Enterprises, Inc. | Robot action based on human demonstration |
EP2890529A2 (de) * | 2012-08-31 | 2015-07-08 | Rethink Robotics Inc. | Systeme und verfahren für sicheren betrieb eines roboters |
-
2012
- 2012-07-10 CN CN201280074622.8A patent/CN104428107B/zh active Active
- 2012-07-10 WO PCT/EP2012/063500 patent/WO2014008929A1/de active Application Filing
- 2012-07-10 US US14/414,050 patent/US9694497B2/en active Active
- 2012-07-10 EP EP12735849.7A patent/EP2838698B2/de active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010120139A (ja) * | 2008-11-21 | 2010-06-03 | New Industry Research Organization | 産業用ロボットの安全制御装置 |
CN102323822A (zh) * | 2011-05-09 | 2012-01-18 | 无锡引域智能机器人有限公司 | 一种避免工业机器人碰撞工人的方法 |
Non-Patent Citations (1)
Title |
---|
ONISHI K ET AL: "3D human posture estimation using the HOG features from monocular image", 19TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, 2008: ICPR 2008; 8 - 11 DEC. 2008, TAMPA, FLORIDA, USA, IEEE, PISCATAWAY, NJ, 8 December 2008 (2008-12-08), pages 1 - 4, XP031412201, ISBN: 978-1-4244-2174-9 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015114089A1 (de) * | 2014-01-30 | 2015-08-06 | Kuka Systems Gmbh | Sicherheitseinrichtung und sicherheitsverfahren |
JP2017512078A (ja) * | 2014-02-05 | 2017-05-18 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 動的な仮想の衝突対象物についてのシステム及び方法 |
US10849591B2 (en) | 2014-02-05 | 2020-12-01 | Intuitive Surgical Operations, Inc. | System and method for dynamic virtual collision objects |
JP2016209991A (ja) * | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | ロボットの制御装置、制御方法およびシステム |
US11498226B2 (en) | 2016-03-17 | 2022-11-15 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Protective device for an effector of a manipulator, device for manipulating workpieces, and a method for actuating a device for manipulating workpieces |
DE102016104940A1 (de) | 2016-03-17 | 2017-09-21 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Schutzvorrichtung für einen Effektor eines Manipulators, Vorrichtung zum Manipulieren von Werkstücken und Verfahren zum Betätigen einer Vorrichtung zum Manipulieren von Werkstücken |
WO2017158120A1 (de) | 2016-03-17 | 2017-09-21 | Deutsches Zentrum für Luft- und Raumfahrt e. V. | Schutzvorrichtung für einen effektor eines manipulators, vorrichtung zum manipulieren von werkstücken und verfahren zum betätigen einer vorrichtung zum manipulieren von werkstücken |
EP3733362A1 (de) | 2016-03-17 | 2020-11-04 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Schutzvorrichtung für einen effektor eines manipulators, vorrichtung zum manipulieren von werkstücken und verfahren zum betätigen einer vorrichtung zum manipulieren von werkstücken |
KR20180013757A (ko) * | 2016-07-28 | 2018-02-07 | 더 보잉 컴파니 | 유압 로봇들 부근에 있을 때 움직임을 탐지하기 위한 인간 모션 센서들의 사용 |
KR102400964B1 (ko) | 2016-07-28 | 2022-05-20 | 더 보잉 컴파니 | 유압 로봇들 부근에 있을 때 움직임을 탐지하기 위한 인간 모션 센서들의 사용 |
US10556353B2 (en) | 2016-08-12 | 2020-02-11 | Industrial Technology Research Institute | Robot arm control device and robot arm operation method |
US10452939B2 (en) | 2017-02-15 | 2019-10-22 | Omron Corporation | Monitoring system, monitoring device, and monitoring method |
JP2018130793A (ja) * | 2017-02-15 | 2018-08-23 | オムロン株式会社 | 監視システム、監視装置、および監視方法 |
EP3363602A1 (de) * | 2017-02-15 | 2018-08-22 | Omron Corporation | Überwachungssystem, überwachungsvorrichtung und überwachungsverfahren |
JP7052203B2 (ja) | 2017-03-22 | 2022-04-12 | 日本電気株式会社 | 安全制御装置、安全制御方法およびプログラム |
JP2018158393A (ja) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | 安全制御装置、安全制御方法およびプログラム |
CN107520843A (zh) * | 2017-08-22 | 2017-12-29 | 南京野兽达达网络科技有限公司 | 一种类人多自由度机器人的动作训练方法 |
US11117270B2 (en) | 2017-10-06 | 2021-09-14 | Pilz Gmbh & Co. Kg | Safety system for safeguarding cooperative operation of people, robots and machines |
EP3467601A3 (de) * | 2017-10-06 | 2019-07-24 | Pilz GmbH & Co. KG | Sicherheitssystem zur absicherung eines kooperativen betriebs von menschen, robotern und maschinen |
JPWO2020144852A1 (ja) * | 2019-01-11 | 2021-09-27 | 株式会社Fuji | 制御装置、ワーク作業装置、ワーク作業システム及び制御方法 |
WO2020144852A1 (ja) * | 2019-01-11 | 2020-07-16 | 株式会社Fuji | 制御装置、ワーク作業装置、ワーク作業システム及び制御方法 |
JP7145237B2 (ja) | 2019-01-11 | 2022-09-30 | 株式会社Fuji | 制御装置、ワーク作業装置、ワーク作業システム及び制御方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2838698B2 (de) | 2020-01-01 |
CN104428107B (zh) | 2016-06-29 |
US9694497B2 (en) | 2017-07-04 |
US20150158178A1 (en) | 2015-06-11 |
EP2838698A1 (de) | 2015-02-25 |
EP2838698B1 (de) | 2016-05-04 |
CN104428107A (zh) | 2015-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2838698B1 (de) | Roboteranordnung und verfahren zum steuern eines roboters | |
EP2989369B1 (de) | Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine | |
DE102016216441B3 (de) | Verfahren und Vorrichtung zur Mensch-Roboter Kooperation | |
DE102008021671B4 (de) | Verfahren und Vorrichtung zur Überwachung eines Manipulators | |
EP3200961B1 (de) | Verfahren und vorrichtung zur steuerung/regelung eines roboter-manipulators | |
EP2563553B1 (de) | Verfahren und steuermittel zum steuern eines roboters | |
DE10361132B4 (de) | Verfahren zur Überwachung der Bewegung eines sich in mehreren Freiheitsgraden bewegenden Gefahr bringenden Objektes eines Handhabungsgerätes, wie Handhabungsmasse und/oder bewegliche Masse | |
EP1366867A2 (de) | Verfahren und Vorrichtung zum Vermeiden von Kollisionen zwischen Industrierobotern und anderen Objekten | |
DE102016008908A1 (de) | Industrierobotersystem und Steuerverfahren dafür | |
DE102015012232A1 (de) | Mit Menschen kollaborierendes Robotersystem | |
DE102012212754A1 (de) | Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem | |
WO2008014909A1 (de) | Kamarabasierte überwachung von maschinen mit beweglichen maschinenelementen zur kollisionsverhinderung | |
DE102013110901B4 (de) | MRK Planungstechnologie | |
EP3386686A1 (de) | Verfahren zum erkennen einer kollision eines roboterarms mit einem objekt und roboter mit einem roboterarm | |
DE102012007242A1 (de) | Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation | |
DE102015108010B3 (de) | Steuern und Regeln von Aktoren eines Roboters unter Berücksichtigung von Umgebungskontakten | |
DE102011005513A1 (de) | Roboter und Verfahren zum Betreiben eines Roboters | |
DE102013013875A1 (de) | Verfahren zum Steuern eines Roboters | |
DE102010048369A1 (de) | Verfahren und Vorrichtung zur Sicherheitsüberwachung eines Manipulators | |
DE10226140A1 (de) | Verfahren und Vorrichtung zum Vermeiden von Kollisionen zwischen Industrierobotern und anderen Objekten | |
DE102010010875A1 (de) | Verfahren zum Überwachen der räumlichen Umgebung eines bewegbaren Geräts, insbesondere eines medizinischen Geräts | |
DE102012015975A1 (de) | Verfahren zum Betreiben eines Sicherheitssystems für eine Produktionsstation und Sicherheitssystem für eine Produktionsstation | |
WO2020216569A1 (de) | Verfahren und system zum betreiben eines roboters | |
DE102016222245A1 (de) | Einrichtung und Verfahren zur Einwirkung auf Gegenstände | |
EP3415286A1 (de) | Überwachung eines roboters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12735849 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012735849 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14414050 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |