DE102004030144B4 - Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit - Google Patents

Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit Download PDF

Info

Publication number
DE102004030144B4
DE102004030144B4 DE200410030144 DE102004030144A DE102004030144B4 DE 102004030144 B4 DE102004030144 B4 DE 102004030144B4 DE 200410030144 DE200410030144 DE 200410030144 DE 102004030144 A DE102004030144 A DE 102004030144A DE 102004030144 B4 DE102004030144 B4 DE 102004030144B4
Authority
DE
Germany
Prior art keywords
robot
unit
optical
robot unit
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE200410030144
Other languages
English (en)
Other versions
DE102004030144A1 (de
Inventor
Jürgen Prof. Dr.-Ing. Beyerer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE200410030144 priority Critical patent/DE102004030144B4/de
Publication of DE102004030144A1 publication Critical patent/DE102004030144A1/de
Application granted granted Critical
Publication of DE102004030144B4 publication Critical patent/DE102004030144B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Vorrichtung zur Nahbereichsdetektion um eine Robotereinheit mit wenigstens einer von einer Robotersteuerung ansteuerbaren beweglichen Roboterkomponente, wobei optische Sensoren an der Robotereinheit angebracht sind, mit einer zumindest einen Teilbereich des die Robotereinheit umgebenden Nahbereichs erfassenden optischen Apertur und wobei wenigstens eine mit wenigstens einem der optischen Sensoren verbundene Auswerteeinheit vorgesehen ist, die unter Berücksichtigung einer von der Robotersteuerung mitgeteilten räumlichen Pose der Robotereinheit sowie von den optischen Sensoren erzeugten Sensorsignalen ein die Robotersteuerung beeinflussendes Signal erzeugt, dadurch gekennzeichnet, dass eine Vielzahl optischer Sensoren mit jeweils zumindest einen Teilbereich des Nahbereichs erfassender optischer Apertur an der Robotereinheit (1) angebracht ist, dass wenigstens eine Lichtquelle an der Robotereinheit (1) vorgesehen ist, die von wenigstens einem optischen Sensor detektierbares Licht emittiert, und dass zumindest an Oberflächenbereichen der Robotereinheit (1), die sich im Blickfeld einer Aufnahmeoptik wenigstens eines optischen Sensors befinden oder in diesen einschwenkbar sind, eine das Licht der wenigstens einen Lichtquelle retroreflektierende...

Description

  • Technisches Gebiet
  • Die Erfindung bezieht sich auf eine Vorrichtung sowie ein Verfahren zur Nahbereichsdetektion um eine Robotereinheit mit wenigstens einer von einer Robotersteuerung ansteuerbaren beweglichen Roboterkomponente. Die Überwachung des sich um die Robotereinheit erstreckenden Nahbereiches dient in erster Linie zur Detektion von in den Nahbereich gelangenden Objekten und insbesondere zum Schutz der Robotereinheit sowie möglicher Objekte vor einer gegenseitigen Kollision.
  • Stand der Technik
  • Robotereinheiten werden heutzutage in vielfachen Ausbildungsvarianten für eine Vielzahl unterschiedlicher Einsatz- und Anwendungsfälle eingesetzt. Grundsätzlich lassen sich stationäre Robotereinheiten von sich eigenfortbewegungsfähigen bzw. mobilen Robotersystemen unterscheiden, doch ist allen Robotereinheiten gemeinsam, dass sie über wenigstens eine bewegliche Roboterkomponente verfügen, die zumeist zu Zwecken der Manipulationen an Objekten dienen. Eine besondere Gattung mobiler Robotereinheiten stellen so genannte humanoide Roboter dar, deren Bewegungsfähigkeit der Bewegungsdynamik eines Menschen nachgebildet ist. Um den sicheren Betrieb von Robotereinheiten und insbesondere den Einsatz vorstehend erwähnter humanoider Roboter gewährleisten zu können, ist sicherzustellen, dass ein körperlicher Kontakt zwischen der Robotereinheit und in der Umgebung der Robotereinheit befindlichen Objekten, wie beispielsweise Menschen, nicht zufällig, sondern allenfalls kontrolliert erfolgt, um einerseits die Robotereinheit vor Schäden zu schützen und andererseits die von der Robotereinheit auf die umliegenden Objekte ausgehende Verletzungsgefahr zu minimieren. Dies erfordert ein roboterseitiges System zur Früherkennung von relativen Objektannäherungen, um fallabhängig bspw. zur gezielten Kontaktvermeidung zu umliegenden Objekten oder unter Maßgabe einer zu umliegenden Objekten aufzunehmenden sanften Kontaktierung die Robotereinheit geeignet anzusteuern.
  • In der DE 102 16 023 A1 wird ein Verfahren und eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person beschrieben. Ein außerhalb der Robotereinheit installiertes Sensorsystem erfasst die Position einer Person oder Teile einer Person, die sich in einem Detektionsbereich, der in etwa dem Aktionsbereich der Robotereinheit entspricht, bewegt. Diese dynamisch erfassten Positionen werden unter Maßgabe eines die Person beschreibenden Verhaltensmodells bewertet und die Robotereinheit wird in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person gesteuert.
  • In der DE 3840677 A1 wird ein berührungslos arbeitender, schneller, optischer Überwachungssensor zum Detektieren von in eine Schutzzone eindringenden Objekten vorgeschlagen, der beispielsweise an mobilen Geräten angebracht werden kann. Der Sensor besteht aus einem optischen Sender und einem optischen Empfänger. Durch eindimensionales Aufspreizen eines vom optischen Sender ausgehenden Lichtstrahls wird eine Lichtfläche erzeugt, die die Schutzzone überstreicht. Der optische Empfänger ist so angeordnet, dass er solange kein Signal empfängt wie kein Objekt in die Schutzzone eindringt. Wenn ein Objekt in die Schutzzone eindringt, reflektiert es Strahlen aus der Lichtfläche zum Empfänger. Nachfolgend können entsprechende Maßnahmen, beispielsweise eine Abschaltung des mobilen Gerätes, eingeleitet werden.
  • Aus der DE 101 62 412 A1 ist eine Sicherheitseinrichtung für Vorrichtungen mit im Raum frei beweglichen Teilen, beispielsweise für Roboter, bekannt, die ein taktiles Sensorsystem aufweist. Das taktile Sensorsystem besteht aus Lichtwellenleitern.
  • Die US 6,317,652 B1 beschreibt einen humanoiden Roboter mit Beinen und Füßen. Eine am Körper des Roboters montierte, optische Erfassungseinheit erfasst gleichzeitig einen Teil eines Fußes und ein auf dem Weg des Roboters liegendes Hindernis. Eine Auswerteeinheit berechnet die relative örtliche Beziehung zwischen Bein und Hindernis während der Bewegung.
  • Schutzsysteme für stationäre sowie auch mobile Industrieroboter, die über sensorische Detektionssysteme verfügen, mit denen die Erfassung der Annäherung zu einem Objekt möglich ist, befinden sich derzeit noch im experimentellen Stadium. Beispielsweise werden hierzu Manipulatorarme eines Industrieroboter-Systems mit Ultraschallsensoren bestückt, die die Relativannäherung zu einem Objekt oder zu einem Menschen zu detektieren vermögen. Wird eine derartige Objektannäherung mit Hilfe der Sensoren festgestellt, so können zur Vermeidung von Kollisionen bzw. etwaiger Verletzungen die Eigenbeweglichkeit des Roboters gestoppt oder zumindest seine Fortbewegungsgeschwindigkeit stark herabgesetzt werden. Auch sind Robotersysteme bekannt, die an ausgewiesenen Manipulatorarmbereichen über taktile Sensoren verfügen, wie beispielsweise mechanische oder druckempfindliche Sensoren, die im Falle einer ungewollten Berührung mit einem Objekt Steuersignale für ein spontanes Ausschalten des Roboters generieren. Allen bekannten derartigen Überwachungs- und Schutzsystemen von Robotereinheiten haftet jedoch der Nachteil an, dass die zur Objektannäherung eingesetzten Detektionssysteme an nur bestimmte Handhabungsvorgänge angepasst sind, beispielsweise zur Aufnahme bzw. zum Ablegen bestimmter Objekte. Für das übrige Umfeld, in dem sich die Robotereinheit bewegt, ist die Robotereinheit blind, so dass zusätzliche Maßnahmen getroffen werden müssen, um Kollisionen und möglicherweise damit verbundene Beschädigungen bzw. Verletzungen mit bzw. an Objekten zu vermeiden.
  • Darstellung der Erfindung
  • Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung sowie ein Verfahren zur Nahbereichsdetektion um eine Robotereinheit anzugeben, wobei die Robotereinheit wenigstens eine von einer Robotersteuerung ansteuerbare bewegliche Roboterkomponente aufweist, wobei gewährleistet werden soll, dass die die Robotereinheit umgebende Umgebung nahezu vollständig überwacht wird, so dass Kollisionen mit Objekten, einschließlich des Menschen, durch der Robotereinheit ausgeschlossen werden können. Das hierfür erforderliche System soll eine einfache Überwachung ermöglichen und nur geringe Kosten aufwerten. Das Überwachungssystem soll überdies im Roboter integrierbar sein, so dass die Eigenbeweglichkeit der Robotereinheit in keiner Weise beeinträchtigt werden soll. Überdies soll das Überwachungssystem das äußere Erscheinungsbild des Roboters, vorzugsweise in Ausbildung eines humanoiden Roboters, optisch nicht beeinträchtigen.
  • Die Lösung der der Erfindung zugrunde liegenden Aufgabe ist im Anspruch 1 angegeben. Gegenstand des Anspruches 11 ein diesbezügliches Verfahren zur Nahbereichsdetektion um eine Robotereinheit. Den Erfindungsgedanken vorteilhaft weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der Beschreibung, insbesondere in Bezugnahme auf das Ausführungsbeispiel, zu entnehmen.
  • Erfindungsgemäß weist die Vorrichtung zur Nahbereichsdetektion um eine Robotereinheit mit wenigstens einer von einer Robotersteuerung ansteuerbaren beweglichen Roboterkomponente eine Vielzahl optischer Sensoren auf, die an der Robotereinheit angebracht ist, wobei jeder einzelne optische Sensor eine zumindest einen Teilbereich des die Robotereinheit umgebenden Nahbereichs erfassende optische Apertur aufweist. Die Gesamtanordnung der optischen Sensoren ist vorzugsweise derart ausgebildet, dass durch die Zusammensetzung jedes einzelnen Blickfeldes jeweils eines optischen Sensors ein die gesamte Oberfläche der Robotereinheit umspannender Nahbereich optisch erfasst wird. Die einzelnen optischen Sensoren sind jeweils mit einer Auswerteeinheit verbunden, die unter Berücksichtigung einer von der Robotersteuerung mitgeteilten räumlichen Pose der Robotereinheit sowie von den optischen Sensoren erzeugten Sensorsignalen ein Signal erzeugt, das beispielsweise im Falle einer erkannten Objektannäherung die Robotereinheit zum Stillstand bringt.
  • Mit Hilfe der optischen Sensoren ist es möglich, eine die Robotereinheit umspannende räumliche Schutzzone, den so genannten Nahbereich, zu schaffen, innerhalb der nicht Roboter eigene Objekte sicher und schnell detektiert werden können. Im Gegensatz zu mechanischen oder druckempfindlichen Sensoren liefert der optische Ansatz durch die vorzugsweise gesamtheitliche optische Erfassung des die Robotereinheit umgebenden Nahbereiches zeitlich deutlich vor Eintritt einer möglichen Kollision mit einem Objekt einen entsprechenden Alarm in Form eines Signals, durch das die Robotersteuerung die Eigendynamik der Robotereinheit in geeigneter Weise zu beeinflussen vermag. Mit Hilfe der erfindungsgemäßen Vorrichtung wird somit ein weit höheres Sicherheitspotential geschaffen, als es mit den bisher bekannten mechanischen, zumeist druckempfindlichen Abstandssensoren bislang der Fall ist.
  • In einer bevorzugten Ausführungsform werden zur Absicherung des Nahbereiches um eine vorzugsweise als humanoider Roboter ausgebildete Robotereinheit miniaturisierte CCD- oder CMOS-Kameras in größerer Anzahl an der Robotereinheit angebracht, die aufgrund ihrer derzeit verfügbaren Kameragröße mit äußeren Abmessungen von kleiner 20 mm × 20 mm × 20 mm über einen hohen Grad an Integrationsfähigkeit verfügen, so dass insbesondere das äußere Erscheinungsbild der Robotereinheit nicht oder nur in einem sehr geringen Maße beeinflusst wird. Derartige marktübliche Kameramodule sind bereits kostengünstig erhältlich, so dass selbst die Verwendung einer Vielzahl derartiger optischer Sensoren durchaus wirtschaftlich vertretbar ist. Typischerweise verfügen derartige miniaturisierte CCD-Kameras über 200 000 bis 500 000 Bildpixel, wobei der technologische Trend bezüglich der Pixelanzahl bereits in den Megapixelbereich vorgedrungen ist, ein Auflösungsgrad, der für den technischen Einsatzzweck einer bloßen Objekterkennung mehr als ausreichend geeignet ist.
  • Selbstverständlich sind auch alternative optische Sensoren denkbar. So gibt es heutzutage Kamerasysteme, die über folienartig ausgebildete optische Detektionsflächen verfügen, die nach dem Prinzip des Facettenauges arbeiten. Die Wahl des jeweiligen optischen Sensors richtet sich zum einen nach seinem optischen Auflösungsvermögen und zum anderen nach seiner Integrationsfähigkeit, eine Eigenschaft, durch die das äußere Erscheinungsbild entsprechender Robotereinheiten möglichst unbeeinträchtigt bleibt, zumal dies eine wichtige Voraussetzung für die Akzeptanz derartiger Robotersysteme durch den Menschen ist.
  • In einer einfachen Ausführungsform sind die verteilt an der Robotereinheit angebrachten optischen Sensoren mit einer einzigen Auswerteeinheit, die ebenfalls in der Robotereinheit integriert ist, verbunden, an die die Sensorsignale zur Signalauswertung geleitet werden. Neben den Sensorsignalen wird der Auswerteeinheit die von der Robotersteuerung vorgegebene Konfiguration bzw. Pose mitgeteilt sowie sonstige für den Roboter verfügbare Umgebungsinformationen. Auf der Grundlage dieser Informationen generiert die Auswerteeinheit ein Signal, das situationsabhängig die Robotersteuerung und die hiervon abhängige Bewegungsdynamik der Robotereinheit beeinflusst.
  • Ebenso ist es denkbar, anstelle einer zentralen Auswerteeinheit die von jedem einzelnen optischen Sensor erzeugten Sensorsignale von einer am optischen Sensor vorgesehenen intelligenten Auswerteeinheit zu verarbeiten, wobei die Ergebnisse der jeweiligen Signalauswertung pro optischer Sensor miteinander vernetzt und letztlich zur Ansteuerung der Robotersteuerung zugeführt werden. Unabhängig von der tatsächlichen Ausbildungsform der Auswerteeinheit, sei es zentral oder dezentral, können darüber hinaus lernfähige Auswertemodule innerhalb der Auswerteeinheit vorgesehen sein, beispielsweise auf Basis Fuzzy-basierter oder neuronaler Netzwerkstrukturen, um der Robotereinheit eine situationsabhängige Lernfähigkeit zuteil werden zu lassen, durch die das Bewegungsverhalten des Roboters in Abhängigkeit eines bestimmten Bewegungsmusters, unter dem sich ein Objekt dem Roboter annähert, beeinflussbar ist.
  • Im Weiteren werden drei alternative Sensor-Konzepte beschrieben, die zur Erfassung eines in den Nahbereich um eine Robotereinheit eindringenden Objektes speziell ausgebildet sind.
  • Eine erste Ausführungsform sieht eine Kombination eines optischen Sensors mit einer Lichtquelle vor, vorzugsweise eine LED-Lichtquelle, beispielsweise in Form einer IR-LED vor, wobei das von der Lichtquelle emittierte Licht koaxial oder zumindest weitgehend koaxial zur Apertur bzw. zum Blickfeld des optischen Sensors emittiert wird. Sei beispielsweise ein Blickfeld mit einem konischen Beobachtungswinkel angenommen, so könnte eine ringförmig die Beobachtungsapertur des optischen Sensors umgebende Lichtquelle ein in den Beobachtungsbereich eindringendes Lichtfeld emittieren. Die Wahl der von der Lichtquelle emittierten Lichtwellenlänge ist auf den Detektionsbereich des optischen Sensors abgestimmt. Um vor allem die äußere Erscheinungsform einer als humanoiden Roboter ausgebildeten Robotereinheit nicht zu beeinträchtigen, erweisen sich im infraroten Spektralbereich emittierende LED's als besonders vorteilhaft, zumal das von IR-LED's emittierte Licht vom menschlichen Auge nicht erfassbar ist.
  • Zur besseren Unterscheidbarkeit zwischen Objekten und Komponenten der Robotereinheit selbst, beispielsweise Roboterarme oder an der Robotereinheit angebrachte Werkzeuge, weisen wenigstens Teilbereiche, vorzugsweise die gesamte Roboteroberfläche, eine retroreflektierende Oberfläche auf, die bevorzugt das von den jeweiligen Lichtquellen emittierte Licht reflektiert. Die retroreflektierende Oberfläche ist vorzugsweise in Form einer Folie oder eines geeignet konfektionierten Farbaufstriches zumindest an den eigenbeweglichen Partien bzw. Komponenten der Robotereinheit, beispielsweise Roboterarmen, angebracht. Befindet sich beispielsweise ein retroreflektierender Bereich der Robotereinheit innerhalb des Sicht- und Beleuchtungskegels eines optischen Sensors, erscheint dieser Bereich mit einer sehr hohen Intensität, zumal die am Sensor angebrachte Lichtquelle über die retroreflektierende Schicht direkt auf den optischen Sensor abgebildet wird (Hellfeldbelichtung). Hingegen erscheinen nicht retroreflektierende, aber dennoch im Strahlengang befindliche Objekte, selbst dann, wenn sie wenig absorbieren, beispielsweise weiß sind, erheblich dunkler als die retroreflektierenden Oberflächenbereiche der Robotereinheit. Somit können robotereigene Oberflächenbereiche von Objekten in der Umgebung mit großer Sicherheit unterschieden werden.
  • Gelangen nicht retroreflektierende Objekte beispielsweise zwischen einen optischen Sensor und einen robotereigenen Bereich mit retroreflektierender Oberfläche, so lassen sich die retroreflektierenden Objekte in Echtzeit sicher erkennen. Jedes einzelne Pixel des vorzugsweise als CCD-Kamera oder CMOS-Kamera ausgebildeten optischen Sensors, dessen optische Apertur bzw. Blickfeld auf einen retroreflektierenden Bereich der Robotereinheit ausgerichtet ist, stellt gewissermaßen eine Reflexlichtschranke dar. Die Menge aller Pixel einer Kamera, die jeweils auf retroreflektierende Bereiche ausgerichtet sind, stellen somit eine räumlich verteilte, fächerförmig ausgebildete Lichtschranke dar. Je nach geometrischer Konfiguration bzw. Pose des Roboters verändert sich die Lichtschrankengeometrie, ein Umstand, der jedoch unter Einbeziehung der von der Robotersteuerung gelieferten aktuellen Konfigurationsdaten der Robotereinheit bei der Signalauswertung berücksichtigt werden kann. So können grundsätzlich alle von der Robotereinheit einnehmbare Posen bzw. Konfigurationen in einer modellbasierten Datenbank abgespeichert werden, die der Auswerteeinheit bei der Auswertung der Sensorsignale zu Zwecken einer möglichen Objekterkennung zur Verfügung gestellt wird.
  • Um den sensortechnischen Aufwand weitgehend gering zu halten und zugleich dafür zu sorgen, dass die Robotereinheit möglichst vollständig an ihrer Oberfläche überwacht wird, eignen sich in der vorstehend erläuterten Kombination ausgebildete optische Sensoren in Verbindung mit einer weitwinkligen Beobachtungs- und Abbildungsoptik, über die sowohl die Lichtquelle als auch das optische Beobachtungsfeld des optischen Sensors abgebildet werden, um möglichst große Raumwinkelbereiche erfassen zu können.
  • Um zu vermeiden, dass bei Verwendung mehrerer als Kameras ausgebildete optische Sensoren mit jeweils koaxialer Beleuchtung eine gegenseitige Irritation stattfindet, werden Kameraanordnungen, die aufgrund der durch die Kinematik der Robotereinheit vorgegebenen Bewegungsmuster in eine gegenseitige optische Beeinträchtigung geraten können, mit jeweils auf unterschiedlichen IR-Wellenlängen emittierenden Lichtquellen ausgestattet. Überdies sind die optischen Sensoren unter Verwendung geeigneter optischer Filter gegenseitig optisch entkoppelbar.
  • Eine weitere Möglichkeit optische Sensoren zur Nahfeldüberwachung auszubilden und insbesondere zur Detektion von sich innerhalb des Nahfeldes befindlichen Objekten anzupassen, stellen so genannte Miniaturkameras dar, mit einer optischen Abbildungseinheit, die über einen Schärfentiefenbereich verfügen, durch den der Nahbereich von einem von der optischen Detektion ausgenommenen Fernbereich unterscheidbar ist. Somit werden Objekte, die sich innerhalb des Nahbereichs befinden, über die optische Abbildungseinheit scharf abgebildet. Objekte, die sich hingegen im Fernbereich befinden, lassen sich nur mit sehr unscharfen Konturen auf die Abbildungsebene der Kamera abbilden. Auf diese Weise lassen sich sehr nahe Objekte von fernen, aufgrund ihrer unterschiedlichen Ortsfrequenzen prinzipiell unterscheiden, wobei es für die Unterscheidung nicht notwendig ist, die Spektren komplett zu berechnen bzw. zu untersuchen. Vielmehr können Filterbank-basierte, beispielsweise Wavelet-basierte Merkmale aus den von den optischen Sensoren erzeugten Sensorsignalen berechnet werden, die eine sichere Diskriminierung in Echtzeit erlauben. Derartige Kameras können unauffällig an der Robotereinheit verteilt angebracht werden, insbesondere an Stellen oder Bereichen, die kollisionskritische Bereiche bzw. Stellen darstellen, wie beispielsweise im Bereich des Roboter-Ellbogens einer als humanoiden Roboter ausgebildeten Robotereinheit. Auch lassen sich mit einem derartigen Sensorkonzept roboternah optische Sperrbereiche etablieren, für die andererseits bei der Bildsignalauswertung Modellwissen und aktuelle Konfigurationsinformationen von der Robotersteuerung einbezogen werden können.
  • Grundsätzlich lässt sich innerhalb der Auswerteeinheit ein Unterscheidungskriterium angeben, das die räumliche Trennung des Nahfeldbereiches vom Fernfeldbereich definiert. Hierfür sieht die Auswerteeinheit eine so genannte Diskriminatoreinheit vor, die in Form einer Filterbank, ein Unterscheidungskriterium zwischen Objekten innerhalb des Fern- und Nahbereiches definiert. Die Tiefe bzw. räumliche Erstreckung des typischerweise von der Oberfläche der Robotereinheit ausgehenden Nahbereiches lässt sich grundsätzlich beliebig vorgeben. So ist es denkbar, die räumliche Erstreckung des Nahbereiches variabel beispielsweise von der Bewegungsgeschwindigkeit der Robotereinheit bzw. Komponenten der Robotereinheit einzustellen. Je höher die Eigenfortbewegungsgeschwindigkeit ist, umso weiter erstreckt sich der Nahbereich von der Oberfläche der Robotereinheit. Auch können Bereiche der Robotereinheit über unterschiedlich tief ausgebildete Nahbereiche verfügen, beispielsweise können räumlich unbewegte Roboterkomponenten überhaupt nicht oder nur in einem sehr schmal begrenzten Nahfeldbereich überwacht werden, wohingegen Roboterbereiche, die über eine hohe Bewegungsdynamik verfügen, einen weiträumig ausgebildeten, überwachten Nahbereich vorsehen.
  • Eine weitere Alternative zur Ausbildung eines optischen Sensors zur Erfassung von in den Nahbereich eindringenden Objekten stellt ein optischer Sensor in Kombination mit einem so genannten entozentrischen Objektiv dar, das einen von der Gegenstandsweite abhängigen Abbildungsmaßstab vorsieht, d.h., ein sich auf das Objektiv annäherndes Objekt erscheint in der zeitlichen Abfolge in der Abbildungsebene immer größer zu werden. Ein miniaturisiertes Kamerasystem, das über ein derartig entozentrisches Objektiv verfügt, wird mit einer geeignet gewählten Bildauslesefrequenz zur Erzeugung von Bildsequenzen betrieben, wobei zeitlich in unmittelbarer Abfolge aufgenommene Bilder in der Auswerteeinheit miteinander verglichen und ausgewertet werden. Die auf diese Weise gewonnene raum-zeitliche Divergenz eines Objektes bei Annäherung auf ein entsprechend konfektioniertes Kamerasystem ermöglicht die Berechnung der Annäherungsgeschwindigkeit des Objektes und erlaubt die Prädiktion von zeitlich bevorstehenden Kollisionen. In Abhängigkeit der erfassten dynamischen Situation lassen sich somit entsprechende Steuersignale generieren, durch die die Robotereinheit in eine entsprechend defensive bzw. Kollisionsvermeidende Position überführt werden kann.
  • In vorteilhafter Weise lassen sich die vorstehend beschriebenen alternativen Kamerasysteme in geeigneter Weise kombinieren. So ist es denkbar, einen mit einem entozentrischen Objektiv ausgerüsteten optischen Sensor mit einer Lichtquelle zu kombinieren, deren Licht auf entsprechend vorgesehenen retroreflektierenden Oberflächenbereichen der Robotereinheit zurückreflektiert wird.
  • Auch lassen sich die drei vorstehend beschriebenen optischen Sensortypen mit dem Ziel der Ausbildung einer möglichst lückenlosen räumlichen Schutzzone rund um die Robotereinheit beliebig kombinieren. Je nach Anbringungsort für den optischen Sensor eignen sich jeweils unterschiedliche Sensortypen. So könnte beispielsweise ein Bereich der Robotereinheit, in den keine beweglichen Roboterkomponenten eindringen, lediglich mit einem optischen Sensor ausgerüstet werden, dessen optische Abbildungseinheit über ein entozentrisches Objektiv oder über ein Objektiv mit definiert einstellbaren Schärtentiefenbereich verfügt. Roboternahe Bereiche, in denen eine Interaktion der Robotereinheit selbst stattfindet, werden vorzugsweise mit optischen Sensoren in Kombination mit einer Lichtquelle ausgerüstet, dessen Licht jeweils an entsprechend vorgesehenen retroreflektierenden Oberflächenbereichen der Robotereinheit zurückreflektiert wird. Mit Hilfe der unterschiedlichen, zum Einsatz kommenden Sensortypen gilt es eine Fusion der unterschiedlichen Sensorsignale im Rahmen der Auswerteeinheit vorzunehmen, letztlich mit dem Ziel einer Echtzeitauswertung aller von den unterschiedlichen Sensoren stammenden Sensorsignale.
  • Ein weiterer wesentlicher Aspekt gilt der Unterdrückung von externen Störsignalen, wie beispielsweise wechselnde Umgebungslichtverhältnisse, Eigenbewegungen der Sensor- bzw. Kamerapositionen sowie die Unterscheidung von relevanten und irrelevanten Störobjekten, wie beispielsweise die Unterscheidung von in der Umgebung vorhandenen relevanten Hindernissen, die es gilt zu meiden, und lediglich irrelevante Störobjekte, wie beispielsweise Fliegen oder Insekten. Derartige Störeinflüsse gilt es im Rahmen der Auswerteeinheit bzw. unter Hinzuziehung entsprechender optischer oder elektronischer Filter entsprechend zu berücksichtigen.
  • Ferner zeichnet sich ein Verfahren zur Nahbereichsdetektion um eine Robotereinheit mit wenigstens einer von einer Robotersteuerung ansteuerbaren, beweglichen Roboterkomponente, derart aus, dass mit einer Vielzahl an der Robotereinheit angebrachter optischer Sensoren wenigstens ein Teilbereich des die Robotereinheit umgebenden Nahbereichs optisch erfasst wird, und dass unter Berücksichtigung einer von der Robotersteuerung mitgeteilten räumlichen Pose der Robotereinheit sowie von den optischen Sensoren erzeugten Sensorsignalen ein Signal erzeugt wird.
  • Kurze Beschreibung der Erfindung
  • Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand eines Ausführungsbeispieles unter Bezugnahme auf die Zeichnung exemplarisch beschrieben. Es zeigt:
  • 1 schematisierte Darstellung einer Robotereinheit zur Illustration des Prinzips zur Vermeidung von Kollisionen mit Objekten.
  • Wege zur Ausführung der Erfindung, gewerbliche Verwendbarkeit
  • In 1 ist eine Draufsicht auf eine Robotereinheit 1 dargestellt, die in Form eines humanoiden Roboters ausgebildet ist. Am Roboterrumpf 2 befinden sich jeweils über Gelenkeinheiten 3 zwei zweiteilige Roboterarme 4, 5. Zur Überwachung wenigstens von Teilbereichen des den Roboter umgebenden Nahbereiches sind jeweils drei miniaturisierte Kameras 6, 7, 8 vorgesehen. Zudem sind die Oberflächenbereiche der Roboterarme 4, 5 mit einer retroreflektierenden Oberflächenschicht 9 versehen.
  • An jeder einzelnen miniaturisierten Kamera 6, 7, 8 ist zusätzlich eine vorzugsweise im infraroten Spektralbereich emittierende Lichtquelle vorgesehen, die im Sichtbereich der jeweiligen Kamera 6, 7, 8 Licht emittiert. In den schraffiert dargestellten Sichtfeldbereichen 10 wirkt jede einzelne Kamera 6, 7, 8 in Verbindung mit den ihr jeweils gegenüberliegenden retroreflektierenden Bereichen 9 als Reflexlichtschranken-Fächer, in dessen Bereich ein Eindringen von Objekten unter Echtzeitbedingungen detektierbar ist. Die an den Außenbereichen angebrachten Kameras 7, 8 ermöglichen eine Überwachung der äußeren Bereiche des Roboterarms 5, wobei die jeweilige Grenze des Gesichtsfeldes der Kameras 7, 8 durch die gestrichelte Linie 11 angegeben ist. Selbstverständlich können weitere Kameraeinheiten an weiteren Stellen und Bereichen am Roboter 1 vorgesehen werden.
  • Zusätzlich ist ein vorspringender Retroreflektorkragen 12 vorgesehen, durch den der jeweilige retroreflektierende Fächerbereich 10 der Kameras 7, 8 erweitert werden kann.
  • Selbstverständlich lässt sich die schematisiert in 1 dargestellte Robotereinheit mit einer Vielzahl weiterer Kameras in vorteilhafter Weise ausbilden. Die in 1 angegeben Darstellung gilt lediglich zur Illustration des Überwachungsprinzips am Beispiel von drei Miniaturkameras mit jeweils integrierter koaxialer Beleuchtung und retroreflektierenden Oberflächenpartien am Roboter selbst.
  • 1
    Robotereinheit
    2
    Roboterrumpf
    3
    Gelenke
    4, 5
    Roboterarme
    6, 7, 8
    Kamera
    9
    Retroreflektierende Oberflächenschicht
    10
    Reflexlichtschranken-Fächer
    11
    Sichtfeldbegrenzung
    12
    Vorspringender Retroreflektorkragen

Claims (15)

  1. Vorrichtung zur Nahbereichsdetektion um eine Robotereinheit mit wenigstens einer von einer Robotersteuerung ansteuerbaren beweglichen Roboterkomponente, wobei optische Sensoren an der Robotereinheit angebracht sind, mit einer zumindest einen Teilbereich des die Robotereinheit umgebenden Nahbereichs erfassenden optischen Apertur und wobei wenigstens eine mit wenigstens einem der optischen Sensoren verbundene Auswerteeinheit vorgesehen ist, die unter Berücksichtigung einer von der Robotersteuerung mitgeteilten räumlichen Pose der Robotereinheit sowie von den optischen Sensoren erzeugten Sensorsignalen ein die Robotersteuerung beeinflussendes Signal erzeugt, dadurch gekennzeichnet, dass eine Vielzahl optischer Sensoren mit jeweils zumindest einen Teilbereich des Nahbereichs erfassender optischer Apertur an der Robotereinheit (1) angebracht ist, dass wenigstens eine Lichtquelle an der Robotereinheit (1) vorgesehen ist, die von wenigstens einem optischen Sensor detektierbares Licht emittiert, und dass zumindest an Oberflächenbereichen der Robotereinheit (1), die sich im Blickfeld einer Aufnahmeoptik wenigstens eines optischen Sensors befinden oder in diesen einschwenkbar sind, eine das Licht der wenigstens einen Lichtquelle retroreflektierende Oberfläche (9) vorgesehen ist.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass wenigstens ein optischer Sensor vorgesehen ist, der als elektronische Kamera (6, 7, 8), vorzugsweise als CCD- oder CMOS-Kamera, ausgebildet ist.
  3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Auswerteeinheit vorgesehen ist, die mit der Vielzahl der optischen Sensoren verbunden ist, oder dass pro optischer Sensor eine Auswerteeinheit vorgesehen ist, wobei die Vielzahl an Auswerteinheiten miteinander zur Erzeugung eines Signal vernetzt sind.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass wenigstens ein optischer Sensor mit wenigstens einer Lichtquelle derart kombiniert ist, dass die Lichtquelle Licht koaxial oder weitgehend koaxial zum Blickfeld einer Aufnahmeoptik des optischen Sensors emittiert.
  5. Vorrichtung nach Anspruch 1 bis 4, dadurch gekennzeichnet, dass wenigstens zwei Lichtquellen vorgesehen sind, die jeweils Licht unterschiedlicher Wellenlängen emittieren.
  6. Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die retroreflektierende Oberfläche (9) als Folie oder in Form eines retroreflektierenden Farbaufstrichs aufgebracht ist.
  7. Vorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass wenigstens ein optischer Sensor eine optische Abbildungseinheit mit einem Schärfentiefenbereich vorsieht, durch den der Nahbereich von einem von der optischen Detektion ausgenommenen Fernbereich unterscheidbar ist.
  8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Auswerteeinheit eine Diskriminatoreinheit aufweist, vorzugsweise in Form einer Filterbank, durch die eine Lageunterscheidung zwischen Objekten innerhalb des Nah- und Fernbereiches vornehmbar ist.
  9. Vorrichtung nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass wenigstens ein optischer Sensor eine nicht telezentrische, vorzugsweise entozentrisch wirkende, optische Abbildungseinheit aufweist, wobei der wenigstens eine optische Sensor mit einer Bildauslesefrequenz zur Erzeugung von Bildsequenzen betreibbar ist, die in einer Auswerteinheit miteinander ausgewertet werden.
  10. Vorrichtung nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Robotereinheit ein humanoider Roboter ist.
  11. Verfahren zur Nahbereichsdetektion um eine Robotereinheit (1) mit wenigstens einer von einer Robotersteuerung ansteuerbaren, beweglichen Roboterkomponente, bei dem mit einer Vielzahl an der Robotereinheit (1) angebrachter optischer Sensoren wenigstens ein Teilbereich des die Robotereinheit (1) umgebenden Nahbereichs optisch erfasst wird und unter Berücksichtigung einer von der Robotersteuerung mitgeteilten räumlichen Pose der Robotereinheit (1) sowie von den optischen Sensoren erzeugten Sensorsignalen ein die Robotersteuerung beeinflussendes Signal erzeugt wird, wobei koaxial oder weitgehend koaxial zum Blickfeld einer Aufnahmeoptik wenigstens eines optischen Sensors Licht emittiert wird, das wenigstens teilweise an einer an der Robotereinheit vorgesehenen retroreflektierenden Oberfläche (9) in den optischen Sensor zurückreflektiert wird.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass das Signal als Steuersignal an die Robotersteuerung weitergeleitet wird, um eine gezielte Bewegung der wenigstens einen beweglichen Roboterkomponente durchzuführen,
  13. Verfahren nach einem der Ansprüche 11 oder 12, dadurch gekennzeichnet, dass die optischen Sensoren derart an der Robotereinheit (1) angebracht werden, dass die optischen Sensoren in ihrer Gesamtheit einen die gesamte Robotereinheit (1) umgebenden Nahbereich erfassen.
  14. Verwendung der Vorrichtung nach einem der Ansprüche 1 bis 10 zum Schutz einer Robotereinheit (1) vor einer Kollision mit einem in den Nahbereich gelangenden Objekt.
  15. Verwendung nach Anspruch 14, dadurch gekennzeichnet, dass eine als humanoider Roboter ausgebildete Robotereinheit (1) in Interaktion mit einer Umgebung tritt ohne in der Umgebung befindliche Objekte zu beschädigen.
DE200410030144 2004-06-22 2004-06-22 Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit Expired - Fee Related DE102004030144B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200410030144 DE102004030144B4 (de) 2004-06-22 2004-06-22 Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200410030144 DE102004030144B4 (de) 2004-06-22 2004-06-22 Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit

Publications (2)

Publication Number Publication Date
DE102004030144A1 DE102004030144A1 (de) 2006-01-12
DE102004030144B4 true DE102004030144B4 (de) 2007-09-06

Family

ID=35501767

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200410030144 Expired - Fee Related DE102004030144B4 (de) 2004-06-22 2004-06-22 Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit

Country Status (1)

Country Link
DE (1) DE102004030144B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10265856B2 (en) 2016-07-21 2019-04-23 X Development Llc Reorienting a distance sensor using an adjustable leveler

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008025577A1 (de) * 2006-05-30 2008-03-06 Siemens Aktiengesellschaft Verfahren zur einrichtung zur kollisionsüberwachung eines maschinenelements mit einem gegenstand bei einer werkzeugmaschine, produktionsmaschine und/oder bei einer als roboter ausgebildeten maschine
DE102006048163B4 (de) * 2006-07-31 2013-06-06 Pilz Gmbh & Co. Kg Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung
DE102007063099A1 (de) * 2007-12-28 2009-07-02 Kuka Roboter Gmbh Roboter und Verfahren zum Überwachen der Momente an einem solchen
DE102009046107A1 (de) * 2009-10-28 2011-05-05 Ifm Electronic Gmbh System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine
EP3105015B1 (de) 2014-02-13 2021-08-18 ABB Schweiz AG Roboter vorrichtung und verfahren zur steuerung desselbigen
KR102058808B1 (ko) * 2017-07-26 2020-02-20 포걀 나노떼끄 가드 전위를 기준으로 하는 부품(들) 및 용량성 감지 수단이 구비된 로봇
DE102018125736B4 (de) * 2018-10-17 2021-02-18 Sick Ag Verfahren zum Schutz von Menschen in einer Umgebung einer beweglichen Maschine
CN113001536B (zh) * 2019-12-20 2022-08-23 中国科学院沈阳计算技术研究所有限公司 一种面向协作多机器人的防碰撞检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3840677A1 (de) * 1988-12-02 1990-06-07 Krupp Atlas Elektronik Gmbh Optischer ueberwachungssensor
US6317652B1 (en) * 1998-09-14 2001-11-13 Honda Giken Kogyo Kabushiki Kaisha Legged mobile robot
DE10162412A1 (de) * 2001-12-19 2003-07-10 Kuka Roboter Gmbh Einrichtung und Verfahren zum Sichern von Vorrichtungen mit frei im Raum beweglichen Teilen
DE10216023A1 (de) * 2002-04-11 2003-11-06 Fraunhofer Ges Forschung Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3840677A1 (de) * 1988-12-02 1990-06-07 Krupp Atlas Elektronik Gmbh Optischer ueberwachungssensor
US6317652B1 (en) * 1998-09-14 2001-11-13 Honda Giken Kogyo Kabushiki Kaisha Legged mobile robot
DE10162412A1 (de) * 2001-12-19 2003-07-10 Kuka Roboter Gmbh Einrichtung und Verfahren zum Sichern von Vorrichtungen mit frei im Raum beweglichen Teilen
DE10216023A1 (de) * 2002-04-11 2003-11-06 Fraunhofer Ges Forschung Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10265856B2 (en) 2016-07-21 2019-04-23 X Development Llc Reorienting a distance sensor using an adjustable leveler

Also Published As

Publication number Publication date
DE102004030144A1 (de) 2006-01-12

Similar Documents

Publication Publication Date Title
EP2558886B1 (de) Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs
DE102010037744B3 (de) Optoelektronischer Sensor
EP1927867B1 (de) Optoelektronischer Mehrebenensensor und Verfahren zur Erfassung von Objekten
DE102009031732B3 (de) Entfernungsmessender optoelektronischer Sensor
EP3011225B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
DE112010003000B4 (de) Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen
EP2095008B1 (de) Verfahren und vorrichtung zum überwachen eines dreidimensionalen raumbereichs
EP1543270B1 (de) Verfahren und vorrichtung zum absichern eines gefahrenbereichs
DE102010002250B4 (de) Überwachungssystem
DE19938639B4 (de) Vorrichtung zur Absicherung eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
WO2011051285A1 (de) System und verfahren für eine interaktion zwischen einer person und einer maschine
DE10325762A1 (de) Bildverarbeitungssystem für ein Fahrzeug
DE102017218917A1 (de) Überwachungsvorrichtung, Industrieanlage, Verfahren zur Überwachung sowie Computerprogramm
DE102004030144B4 (de) Vorrichtung und Verfahren zur Nahbereichsdetektion um eine Robotereinheit
EP1544535A1 (de) Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE102004018016A1 (de) Verfahren zur Überwachung eines Überwachungsbereichs
DE102009034848B4 (de) Optoelektronischer Sensor
EP3611422A1 (de) Sensoranordnung und verfahren zum absichern eines überwachungsbereichs
DE10033608A1 (de) Verfahren und Vorrichtung zum Absichern eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
DE102007022523A1 (de) Kraftfahrzeug
DE10026711B4 (de) Positionsüberwachungsvorrichtung und -verfahren
DE102016101793B3 (de) Optoelektronische Vorrichtung zur Absicherung einer Gefahrenquelle
DE102017119149A1 (de) Verfahren zur berührungslosen Erfassung relativ zueinander bewegter Objekte und Sensoreinrichtung
EP3026459B1 (de) Sensorsystem
DE102016210056A1 (de) Kameraanordnung zur Bestimmung des optischen Flusses, Fahrassistenzsystem und Überwachungskamera mit der Kameraanordnung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120103