DE102009046107A1 - System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine - Google Patents

System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine Download PDF

Info

Publication number
DE102009046107A1
DE102009046107A1 DE200910046107 DE102009046107A DE102009046107A1 DE 102009046107 A1 DE102009046107 A1 DE 102009046107A1 DE 200910046107 DE200910046107 DE 200910046107 DE 102009046107 A DE102009046107 A DE 102009046107A DE 102009046107 A1 DE102009046107 A1 DE 102009046107A1
Authority
DE
Germany
Prior art keywords
person
marking means
machine
movement
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200910046107
Other languages
English (en)
Inventor
Javier Massanell
Thomas May
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
IFM Electronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IFM Electronic GmbH filed Critical IFM Electronic GmbH
Priority to DE200910046107 priority Critical patent/DE102009046107A1/de
Priority to PCT/EP2010/066163 priority patent/WO2011051285A1/de
Publication of DE102009046107A1 publication Critical patent/DE102009046107A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39387Reflex control, follow movement, track face, work, hand, visual servoing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40617Agile eye, control position of camera, active vision, pan-tilt camera, follow object

Abstract

System für eine Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, - mit Markierungsmitteln, die an der Person an bestimmten Positionen, vorzugsweise Endpositionen von Extremitäten oder Gelenken, angeordnet sind, - mit mindestens einer 3-D-TOF-Kamera zur dreidimensionalen Erfassung des Interaktionsbereichs und zur Erfassung der Markierungsmittel, - mit einer Auswerteeinheit, die derart ausgestaltet ist, dass ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt wird, - mit einer Steuereinheit, die die Maschine derart ansteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person, die Person nicht gefährdet wird.

Description

  • Die Erfindung betrifft ein System und ein Verfahren zur Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, bei dem an der Person an bestimmten Positionen Markierungsmittel angeordnet sind und mithilfe einer 3D-TOF-Kamera erfasst werden können. Die Maschine wird über eine Steuereinheit derart angesteuert, dass die erkannte Person nicht in ihrer Sicherheit gefährdet wird.
  • Aus der DE 10 2005 003 827 B4 ist bereits eine Vorrichtung und ein Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz bekannt, bei der die Annäherung eines Menschen anhand zweier Sicherheitsschwellen überwacht wird. Über eine erste Sensoreinheit wird eine Annäherung eines Menschen an den Arbeitsplatz derart erfasst, dass bei einem Unterschreiten eines ersten Sicherheitsabstandes ein erstes Signal und bei einem Unterschreiten eines zweiten Sicherheitsabstandes ein zweites Signal erzeugt wird. Bei Vorliegen des ersten Signals ist es vorgesehen, die Robotereinheit in einem vorgebbaren Zustand, in einen so genannten sicheren Betriebshalt zu überführen. Liegt das zweite Signal vor, wird die Robotereinheit in einen so genannten Not-Aus-Zustand überführt, in dem die Robotereinheit bewegungslos in ihrer momentanen Stellung verharrt. Weiterhin ist es vorgesehen, dass am Arbeitsplatz der Robotereinheit ein zusätzlicher Sicherheitsschalter angeordnet ist, der die Robotereinheit in den Zustand des sicheren Betriebshaltes überführt.
  • Aus der DE 103 20 343 B4 ist ein Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen bekannt, bei dem nach einem vorgebbaren Programmablauf Handhabungsschritte innerhalb eines sowohl von der Robotereinheit als auch vom Menschen zugänglichen gemeinsamen Arbeitsraumes durchgeführt werden. Hierbei ist es vorgesehen, dass der Robotereinheit bei relativer Annäherung an den Menschen ein Bewegungsmuster aufgeprägt wird, dass sich durch die Bewegungsrichtung, Bewegungsgeschwindigkeit sowie dem Abstand der Robotereinheit relativ zum Menschen auszeichnet. Aus einer Vielzahl unterschiedlicher abgespeicherter Bewegungsmuster wird ein für den Menschen individuelles Bewegungsmuster ausgewählt, so dass dem Menschen ein Gefühl an Arbeitssicherheit und Kontrolle über die Robotereinheit vermittelt wird. Jedes Bewegungsmuster liegt mindestens in einer ersten und zweiten Qualitätsstufe vor, die sich beispielsweise in ihrer Bewegungsgeschwindigkeit und/oder Bewegungsrichtung unterscheiden. Unter Berücksichtigung eines aktuellen Abbremsweges der Robotereinheit sowie einer maximalen eigenen Bewegungsgeschwindigkeit des Menschen wird die Robotereinheit solange abgebremst oder zum Stillstand gebracht, bis eine Kollisionsgefahr auszuschließen ist.
  • Aus dem Stand der Technik sind ferner Systeme zur dreidimensionalen Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-of-flight-(TOF-) oder Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden dreidimensionalen Szenerie.
  • Mit Kamerasystem soll insbesondere alle 3D-TOF-Kamerasysteme mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u. a. in den Anmeldungen DE 196 35 932 , EP 1 777 747 , US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma ,ifm electronic gmbh' als Frame-Grabber O3D101/M01594 zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Aufgabe der Erfindung ist es ein System mit einer 3D-TOF-Kamera für ein Interaktions-System zwischen einer Person und einer Maschine weiter zu bilden.
  • Die Aufgabe wird in vorteilhafter Weise durch die erfindungsgemäße Vorrichtung und dem erfindungsgemäßen Verfahren der unabhängigen Ansprüche gelöst.
  • Vorteilhaft sieht das erfindungsgemäße System für eine Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, Markierungsmittel vor, die an bestimmten Positionen der Person, vorzugsweise an Endpositionen von Extremitäten oder Gelenken, angeordnet sind. Mindestens eine 3D-TOF-Kamera dient zur dreidimensionalen Erfassung des Interaktionsbereichs und zur Erfassung der Markierungsmittel. Mit Hilfe einer Auswerteeinheit wird ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt. Anhand der erfassten und/oder vorbestimmten Position und Bewegung der Person wird die Maschine über eine Steuereinheit derart angesteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person, die Person nicht weiter gefährdet wird.
  • Zweckmäßiger Weise sind die Markierungsmittel als Reflektoren ausgebildet, so wird in vorteilhafter Weise sichergestellt, dass auch bei starkem Umgebungslicht das Markierungsmittel eindeutig und sicher vom Hintergrund unterschieden werden kann.
  • Weiterhin ist es nützlich die Markierungsmittel mit unterschiedlichen optischen Eigenschaften auszugestalten. So ist es möglich, für bestimmte Positionen Markierungsmittel mit besonderen optischen Eigenschaften bereitzustellen. So kann beispielsweise ein Reflektor, der am Kopf der Person angeordnet ist, eine andere optische Eigenschaft aufweisen als die Reflektoren die an der Schulter oder an der Hand angeordnet sind. Prinzipiell ist es denkbar, für jede Position eine eigene optische Eigenschaft vorzusehen.
  • Gemäß einer weiteren Ausgestaltung ist es vorgesehen, eine Arbeitskleidung der interagierenden Person mit Markierungsmittel an den bestimmten Positionen auszustatten.
  • Weiterhin ist es von Vorteil mehr als eine 3D-TOF-Kamera vorzusehen. Die Verwendung mehrerer Kameras erlaubt es insbesondere, die Sicherheit der erfassten Daten zu erhöhen. Darüber hinaus ist es mithilfe mehrerer Kameras möglich auch gegebenenfalls durch die Person oder der Maschine verdeckte Bereiche zu erfassen.
  • In einer weiteren Ausgestaltung ist es vorteilhaft, innerhalb des Interaktionsbereichs mindestens zwei, personenunabhängige Referenzmarkierungen, insbesondere Reflektoren, vorzusehen. Ort und Abstand dieser Referenzmarkierungen sind in Bezug auf mindestens eine 3D-TOF-Kamera bekannt, sodass ausgehend von diesen Referenzmarkierungen das 3D-Modell einer 3D-TOF-Kamera kalibriert werden kann. Ferner ist es von Vorteil, auch ein Verfahren zum Betreiben des vorgenannten Systems bereitzustellen, bei dem die mit der Maschine interagierende Person anhand von Markierungsmitteln, die an bestimmten Stellen der Person angeordnet sind, in seiner Position und Bewegung erfasst wird, wobei anhand der erfassten Markierungsmittel zunächst ein Modell der Person ermittelt wird, anhand dessen die weiteren Berechungen erfolgen.
  • Das Verfahren lässt sich weiter verbessern, indem vor der Interaktion der Person mit der Maschine in einer Startphase zunächst alle Markierungsmittel der Person erfasst werden. So kann sichergestellt werden, dass für die Person ein geeignetes Modell für die weiteren Berechungen hinterlegt werden kann.
  • Zweckmäßiger Weise ist es vorgesehen, dass die Person in der Startphase bestimmte Positionen einnimmt und/oder bestimmte Gesten durchführt. So wird beispielsweise sichergestellt, dass alle Gelenkpunkte der Person erkannt und eine maximale Bewegungsmöglichkeit der Person erfasst wird.
  • Vorteilhaft wird die Interaktion mit der Maschine nur dann freigegeben, wenn in der Startphase alle erwarteten Markierungsmittel eindeutig erkannt wurden.
  • In einer weiteren Ausgestaltung ist es vorgesehen, bei einer erkannten oder prognostizierten Sicherheitskritischen Position und/oder Bewegung der Person die Maschine so anzusteuern, dass eine Gefährdung der Person auszuschließen ist.
  • Liegen die erkannten oder prognostizierten Positionen und/oder Bewegung der Person innerhalb eines erwarteten Prozessbereiches, ist es vorteilhaft vorgesehen einen kooperativen Prozessablauf zwischen Maschine und der Person aufrechtzuerhalten.
  • Es zeigen:
  • 1 schematisch ein erfindungsgemäßes System,
  • 2 einen Maschinenarbeitsbereich mit einer kooperierenden Person,
  • 3 eine kooperierende Person innerhalb eines Interaktionsbereichs,
  • 4 eine kooperierende Person außerhalb des Interaktionsbereichs in der Startphase.
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem 3D-TOF-Kamerasystem, wie es beispielsweise aus der DE 197 04 496 bekannt ist.
  • Das 3D-TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. ein Beleuchtungsmodul 100 mit einer Lichtquelle 12 und einer dazugehörigen Strahlformungsoptik 50 sowie eine Empfangseinheit bzw. 3D-TOF-Kamera 200 mit einer Empfangsoptik 150 und einem Fotosensor 15. Der Fotosensor 15 ist vorzugsweise als Pixel-Array, insbesondere als PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 50 der Sendeeinheit 100 ist vorzugsweise als Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Fotosensor 15 über einen Modulator 18 gemeinsam mit einer bestimmten Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt. Entsprechend der Modulationsfrequenz sendet die Lichtquelle 12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Fotosensor 15. Im Photosensor 15 wird das Signal der ersten Phasenlage a des Modulators 18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung ermittelt.
  • 2 zeigt schematisch einen Maschinenarbeitsplatz mit einem Roboter 30 und einer kooperierenden Person 300. Der Roboter 30 ist hier als Greif- bzw. Werkzeug-Roboter mit mehreren Gelenkarmen 32 und Gelenken 33 ausgestaltet. Zwischen der Person 300 und dem Roboter 30 befindet sich ein Arbeitsplatz 500, der gemeinsam von der Person 300 und dem Roboter 30 vorzugsweise kooperierend genutzt wird. Die gesamte Situation in der sich der Roboter 30 und die Person 300 befinden wird von einer 3D-TOF-Kamera 10 erfasst. Zur besseren Erkennung der Extremitäten der Person 300 sind an bevorzugten Stellen wie beispielsweise Kopf, Schulter, Handgelenk, Arm- und Kniegelenk sowie im Fußbereich Markierungsmittel, vorzugsweise Reflektoren, angeordnet. Die von der 3D-TOF-Kamera erfasste Situation wird mithilfe einer Auswerteeinheit bzw. Bildverarbeitung 210 verarbeitet und insbesondere im Hinblick auf Position und Bewegung der Person 300 ausgewertet. Die Daten der Auswerteeinheit 210 werden vorzugsweise einer Steuereinheit 35 des Roboters 30 zu Verfügung gestellt. Ausgehend von den Position-, Bewegungs- und Lagedaten der Person 300 kann in Relation zu den bekannten Positions- und Bewegungsplänen des Roboters eine sicherheitskritische Lage der Person 300 erkannt werden. Um die Gefahr für die Person zu reduzieren oder gegebenenfalls auch abzuwenden, kann es vorgesehen sein, beispielsweise die Geschwindigkeit der Robotergelenke bei Annäherung zu verringern, sodass sichergestellt werden kann, dass der Roboterarm jederzeit gefahrlos zum Stillstand gebracht werden kann.
  • Bei einer kooperierenden Interaktion zwischen Person 300 und Roboter 30 werden von der Person 300 vorbestimmte Bewegungsmuster erwartet. Kooperiert die Person 300 innerhalb dieser Bewegungsmuster, hält die Maschine den kooperativen Prozessablauf aufrecht. Weicht die Person 300 jedoch von diesem Prozessablauf ab, geht die Maschine gegebenenfalls in einen Sicherheitsmodus oder weicht den Bewegungen der Person 300 aus.
  • Auch für den kooperierenden Prozessablauf ist es vorgesehen, dass die maximale Geschwindigkeit des Roboters so gewählt ist, dass er innerhalb einer vorgegebenen Sicherheitsgrenze bei Gefahr zum Stillstand kommt. Beispielsweise kann es vorgesehen sein, dass die Geschwindigkeit des Roboters mit abnehmendem Abstand der Person 300 von dem Roboter 30 reduziert wird.
  • 3 zeigt schematisch die interaktive Situation in einer Aufsicht. Beispielhaft sind in diesem Ausführungsbeispiel drei 3D-TOF-Kameras 10 vorgesehen, die innerhalb ihres Erfassungsbereiches E den Interaktionsbereich I der Maschine 30 vollständig erfassen. Der Interaktionsbereich I der Maschine 30 wird vornehmlich durch die maximalen Bewegungsmöglichkeiten des Roboters aufgespannt und umfasst selbstverständlich nicht nur eine zweidimensionale Ebene, sondern auch einen entsprechenden Volumenbereich. In der Darstellung befindet sich die Person 300 am Maschinenarbeitsplatz 500 und kann beispielsweise das auf dem Arbeitsplatz 500 befindliche Arbeitsmittel 510 dem Roboter 30 kooperativ zur Verfügung stellen.
  • 4 zeigt eine mögliche Startphase der in 3 gezeigten Arbeitssituation. Im dargestellten Fall befindet sich die Person 300 in einer vorbestimmten Startposition SP. Diese Startposition befindet sich vorzugsweise außerhalb des Interaktionsbereiches, sodass in dieser Phase zunächst keine potenzielle Gefahr von der Maschine 30 ausgeht. Innerhalb der Startphase ist es erfindungsgemäß vorgesehen, dass die Person 300 sich vor Beginn einer Interaktion dem System in der Startposition SP zu erkennen gibt. Vorteilhaft nimmt die Person eine bestimmte Haltung oder eine bestimmte Geste ein, um dem System die Erkennung der Markierungsmittel zu erleichtern bzw. die Zuverlässigkeit der Erkennung zu verbessern. Zu einer weiteren Verbesserung der Erkennung kann es zudem auch vorgesehen sein, mehrere Positionen oder Gesten einzunehmen. Nachdem die Person anhand der Erfassung aller erwarteten Markierungsmittel sicher erfasst und erkannt wurde gibt das System eine mögliche Interaktion frei.
  • Personen die ohne Markierungsmittel in den Erfassungsbereich E eindringen werden als potenziell gefährdet eingestuft. Abhängig von Geschwindigkeit und Richtung des eindringenden Objektes werden sicherheitsrelevante Maßnahmen bis hin zum Not-Halt der Maschine durchgeführt.
  • Durch dieses Vorgehen wird sichergestellt, dass nur entsprechend autorisierte Personen, nämlich solche, die durch bestimmte Markierungsmittel gekennzeichnet sind, kooperativ mit der Maschine in Wechselwirkung treten können. Nicht autorisierte Personen bzw. unbekannte Objekte werden vorsorglich als Sicherheitsrisiko eingestuft.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102005003827 B4 [0002]
    • DE 10320343 B4 [0003]
    • DE 19635932 [0005]
    • EP 1777747 [0005]
    • US 6587186 [0005]
    • DE 19704496 [0005, 0024]

Claims (13)

  1. System für eine Interaktion zwischen einer Person und einer Maschine, insbesondere einem Roboter, – mit Markierungsmitteln, die an der Person an bestimmten Positionen, vorzugsweise Endpositionen von Extremitäten oder Gelenken, angeordnet sind, – mit mindestens einer 3D-TOF-Kamera zur dreidimensionalen Erfassung des Interaktionsbereichs und zur Erfassung der Markierungsmittel, – mit einer Auswerteeinheit, die derart ausgestaltet ist, dass ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt wird, – mit einer Steuereinheit, die die Maschine derart ansteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person, die Person nicht gefährdet wird.
  2. System nach Anspruch 1, bei dem die Markierungsmittel als Reflektoren ausgebildet sind.
  3. System nach einem der vorhergehenden Ansprüche, bei dem die Markierungsmittel mit unterschiedlichen optischen Eigenschaften ausgestaltet sind
  4. System nach einem der vorhergehenden Ansprüche, bei dem eine Arbeitskleidung der interagierenden Person Markierungsmitteln an den bestimmten Positionen aufweist.
  5. System nach einem der vorhergehenden Ansprüche, mit mindestens zwei 3D-TOF-Kameras.
  6. System nach einem der vorhergehenden Ansprüche, bei dem innerhalb des Interaktionsbereichs mindestens zwei, personenunabhängige Referenzmarkierung, insbesondere Reflektoren, angebracht sind.
  7. Verfahren zum Betreiben eines Systems nach einem der vorhergehenden Ansprüchen, bei dem eine mit der Maschine interagierende Person anhand von Markierungsmittel, die an bestimmten Stellen der Person angeordnet sind, in seiner Position und Bewegung erfasst wird, wobei anhand der erfassten Markierungsmittel zunächst ein Modell der Person ermittelt wird, anhand dessen die weiteren Berechnungen erfolgen.
  8. Verfahren nach Anspruch 7, bei dem vor der Interaktion der Person mit der Maschine in einer Startphase zunächst alle Markierungsmittel der Person erfasst werden.
  9. Verfahren nach einem der Ansprüche 7 bis 8, bei dem die Person in der Startphase bestimmte Positionen einnimmt und/oder Gesten durchführt.
  10. Verfahren nach einem der Ansprüche 7 bis 9, bei dem in der Startphase erst bei einer Erkennung aller erwarteten Markierungsmittel die Interaktion mit der Maschine freigegeben wird.
  11. Verfahren nach einem der Ansprüche 7 bis 10, bei dem anhand der letzten Positionen und/oder Bewegungen der Person unter Berücksichtigung des ermittelten Modells die nächste Bewegung der Person vorbestimmt bzw. prognostiziert wird.
  12. Verfahren nach einem der Ansprüche 7 bis 11, bei beim bei einer erkannte oder prognostizierten sicherheitskritischen Position und/oder Bewegung der Person die Maschine so angesteuert wird, dass eine Gefährdung der Person auszuschließen ist.
  13. Verfahren nach einem der Ansprüche 7 bis 12, bei dem die Maschine mit der Person einen kooperativen Prozessablauf aufrechterhält, wenn die erkannte oder prognostizierten Position und/oder Bewegung der Person innerhalb eines erwarteten Prozessbereiches liegt.
DE200910046107 2009-10-28 2009-10-28 System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine Ceased DE102009046107A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE200910046107 DE102009046107A1 (de) 2009-10-28 2009-10-28 System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine
PCT/EP2010/066163 WO2011051285A1 (de) 2009-10-28 2010-10-26 System und verfahren für eine interaktion zwischen einer person und einer maschine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200910046107 DE102009046107A1 (de) 2009-10-28 2009-10-28 System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine

Publications (1)

Publication Number Publication Date
DE102009046107A1 true DE102009046107A1 (de) 2011-05-05

Family

ID=43639143

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200910046107 Ceased DE102009046107A1 (de) 2009-10-28 2009-10-28 System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine

Country Status (2)

Country Link
DE (1) DE102009046107A1 (de)
WO (1) WO2011051285A1 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012007242A1 (de) * 2012-03-09 2013-09-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation
DE202014100411U1 (de) 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
DE102014210362A1 (de) * 2014-06-02 2015-12-03 Kuka Systems Gmbh MRK-Arbeitsplatz mit einer Aufspannvorrichtung
DE102015225587A1 (de) 2015-12-17 2017-06-22 Volkswagen Aktiengesellschaft Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit
DE102016200455A1 (de) * 2016-01-15 2017-07-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters
DE102016004902A1 (de) * 2016-04-22 2017-10-26 Kuka Roboter Gmbh Überwachung eines Roboters
DE102016007519A1 (de) * 2016-06-20 2017-12-21 Kuka Roboter Gmbh Überwachung einer Anlage mit wenigstens einem Roboter
DE102016007520A1 (de) * 2016-06-20 2017-12-21 Kuka Roboter Gmbh Überwachung einer Roboteranordnung
DE112012005650B4 (de) * 2012-01-13 2018-01-25 Mitsubishi Electric Corporation Risikomesssystem
CN108858184A (zh) * 2017-05-11 2018-11-23 发那科株式会社 机器人控制装置以及计算机可读介质
US10245728B2 (en) 2010-02-23 2019-04-02 pmdtechnologies ag Monitoring system
DE102018108445B3 (de) 2018-04-10 2019-08-01 Ifm Electronic Gmbh Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter
DE102019211770B3 (de) * 2019-08-06 2020-09-03 BIBA - Bremer Institut für Produktion und Logistik GmbH Verfahren zur rechnergestützten Erfassung und Auswertung eines Arbeitsablaufs, bei dem ein menschlicher Werker und ein robotisches System wechselwirken
DE102019128782A1 (de) * 2019-10-24 2021-04-29 Sick Ag Bewegbare Maschine
CN114072255A (zh) * 2019-07-31 2022-02-18 X开发有限责任公司 移动机器人传感器配置
DE102022116026A1 (de) 2022-06-28 2023-12-28 Blickfeld GmbH Mobiles überwachungssystem

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9043025B2 (en) * 2012-08-31 2015-05-26 Rethink Robotics, Inc. Systems and methods for safe robot operation
CN103345064B (zh) * 2013-07-16 2015-08-26 深圳市智帽科技开发有限公司 一种集成3d识别的帽子及帽子的3d识别方法
DE102014202733B4 (de) * 2014-02-14 2022-09-01 Homag Plattenaufteiltechnik Gmbh Verfahren zum Betreiben einer Maschine, insbesondere einer Plattenaufteilanlage
CN107932560B (zh) * 2017-11-14 2021-04-27 上海交通大学 一种人机安全防护系统和防护方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
DE102005003827B4 (de) 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
DE10320343B4 (de) 2003-05-07 2008-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004030144B4 (de) * 2004-06-22 2007-09-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit
DE102006048166A1 (de) * 2006-08-02 2008-02-07 Daimler Ag Verfahren zur Beobachtung einer Person in einem industriellen Umfeld
EP1914609A1 (de) * 2006-10-18 2008-04-23 Sick Ag Zustimmschalter mit Mitteln zur Bestimmung seiner Position
DE102007048684B4 (de) * 2007-10-10 2010-09-09 Polysius Ag Laborsystem

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
DE10320343B4 (de) 2003-05-07 2008-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur überwachten Kooperation zwischen einer Robotereinheit und einem Menschen
DE102005003827B4 (de) 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010002250B4 (de) 2010-02-23 2022-01-20 pmdtechnologies ag Überwachungssystem
US10245728B2 (en) 2010-02-23 2019-04-02 pmdtechnologies ag Monitoring system
DE112012005650B4 (de) * 2012-01-13 2018-01-25 Mitsubishi Electric Corporation Risikomesssystem
DE102012007242A1 (de) * 2012-03-09 2013-09-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur sicheren Mensch-Roboter-Kooperation
DE202014100411U1 (de) 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
DE102014210362A1 (de) * 2014-06-02 2015-12-03 Kuka Systems Gmbh MRK-Arbeitsplatz mit einer Aufspannvorrichtung
DE102015225587A1 (de) 2015-12-17 2017-06-22 Volkswagen Aktiengesellschaft Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit
DE102016200455A1 (de) * 2016-01-15 2017-07-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sicherheitsvorrichtung und -verfahren zum sicheren Betrieb eines Roboters
DE102016004902A1 (de) * 2016-04-22 2017-10-26 Kuka Roboter Gmbh Überwachung eines Roboters
DE102016007520A1 (de) * 2016-06-20 2017-12-21 Kuka Roboter Gmbh Überwachung einer Roboteranordnung
DE102016007519A1 (de) * 2016-06-20 2017-12-21 Kuka Roboter Gmbh Überwachung einer Anlage mit wenigstens einem Roboter
CN108858184A (zh) * 2017-05-11 2018-11-23 发那科株式会社 机器人控制装置以及计算机可读介质
US10486307B2 (en) 2017-05-11 2019-11-26 Fanuc Corporation Robot control device and computer readable medium
DE102018108445B3 (de) 2018-04-10 2019-08-01 Ifm Electronic Gmbh Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter
CN114072255A (zh) * 2019-07-31 2022-02-18 X开发有限责任公司 移动机器人传感器配置
DE102019211770B3 (de) * 2019-08-06 2020-09-03 BIBA - Bremer Institut für Produktion und Logistik GmbH Verfahren zur rechnergestützten Erfassung und Auswertung eines Arbeitsablaufs, bei dem ein menschlicher Werker und ein robotisches System wechselwirken
DE102019128782A1 (de) * 2019-10-24 2021-04-29 Sick Ag Bewegbare Maschine
DE102019128782B4 (de) 2019-10-24 2022-06-09 Sick Ag Bewegbare Maschine mit einem Sicherheitssystem, mit einer Sicherheitssteuerung, mit einem Lokalisierungssystem, mit einem Entfernungssensor und mit einer Konturerkennungseinheit
DE102022116026A1 (de) 2022-06-28 2023-12-28 Blickfeld GmbH Mobiles überwachungssystem

Also Published As

Publication number Publication date
WO2011051285A1 (de) 2011-05-05

Similar Documents

Publication Publication Date Title
DE102009046107A1 (de) System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine
DE102010002250B4 (de) Überwachungssystem
DE102009031732B3 (de) Entfernungsmessender optoelektronischer Sensor
DE102010037744B3 (de) Optoelektronischer Sensor
EP3421189B1 (de) Verfahren zum überwachen einer maschine
EP2095008B1 (de) Verfahren und vorrichtung zum überwachen eines dreidimensionalen raumbereichs
DE102007025373B3 (de) Visuelle Überwachung mit Entfernungsbestimmung und Plausibilitätsprüfung anhand von Bildgrößen
DE102018118265B4 (de) Verfahren und Überwachungssystem zum Absichern einer Maschine
DE102010036775A1 (de) Entfernungsmessender optoelektronischer Sensor zur Montage an einer Durchgangsöffnung
EP3650740B1 (de) Sicherheitssystem und verfahren zum überwachen einer maschine
EP2025991A1 (de) Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren
DE102014000747B4 (de) System zur Überwachung eines Zwischenraums zwischen einer Ladeplatte einer stationären Induktionsladevorrichtung und einer Ladeplatte eines geparkten Fahrzeugs
EP3220164A1 (de) Verfahren zum betreiben eines abstandsmessenden überwachungssensors und überwachungssensor
DE102013007886B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102017111885A1 (de) Verfahren und System zum Überwachen einer Maschine
EP2631668B1 (de) Optische Einrichtung und Prüfverfahren zur Prüfung der Funktionsfähigkeit einer optischen Einrichtung
DE102019128782B4 (de) Bewegbare Maschine mit einem Sicherheitssystem, mit einer Sicherheitssteuerung, mit einem Lokalisierungssystem, mit einem Entfernungssensor und mit einer Konturerkennungseinheit
EP0290633A1 (de) Verfahren zum Erkennen von Änderungen in Fahrraum eines unbemannten Fahrzeuges
DE102004030144B4 (de) Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit
EP3026459B1 (de) Sensorsystem
DE102014219538A1 (de) Verfahren zum Betreiben von mobilen Plattformen und mobile Plattform
DE102018211943A1 (de) Radarsystem zur Kollisionsvermeidung eines Roboters
EP2270424B1 (de) Optoelektronischer Sensor und Verfahren zur Überwachung
EP2932188A1 (de) Gerät mit beweglichem geräteteil, insbesondere koordinatenmessgerät oder werkzeugmaschine
DE102018115176B3 (de) Stereokamera und Verfahren zum Ausrichten

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R163 Identified publications notified
R163 Identified publications notified

Effective date: 20130320

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: IFM ELECTRONIC GMBH, 45128 ESSEN, DE

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final