DE102008042261A1 - Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät - Google Patents

Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät Download PDF

Info

Publication number
DE102008042261A1
DE102008042261A1 DE102008042261A DE102008042261A DE102008042261A1 DE 102008042261 A1 DE102008042261 A1 DE 102008042261A1 DE 102008042261 A DE102008042261 A DE 102008042261A DE 102008042261 A DE102008042261 A DE 102008042261A DE 102008042261 A1 DE102008042261 A1 DE 102008042261A1
Authority
DE
Germany
Prior art keywords
image
gripper
detecting
recording
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102008042261A
Other languages
English (en)
Other versions
DE102008042261B4 (de
Inventor
Peter Schlaich
Sabine Sayler
Florian Haug
Christian Knoll
Holger Luetzler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102008042261.4A priority Critical patent/DE102008042261B4/de
Publication of DE102008042261A1 publication Critical patent/DE102008042261A1/de
Application granted granted Critical
Publication of DE102008042261B4 publication Critical patent/DE102008042261B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects

Abstract

Die Erfindung betrifft ein Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät. Vorgesehen ist ein räumliches Navigieren des Handhabungsgerätes (20) zum Greifen und/oder Ablegen eines Objektes (200) in eine Objektaufnahme (300) mittels eines Sensorsystems (30). Das sensorgeführte Navigieren erfolgt über den kompletten Handhabungsprozess. Dabei werden durch eine oder mehrere Einzelmessungen ein oder mehrere Messwerte über die Lage des Objektes (200) und/oder der Objektaufnahme (300) zu einem Bezugssystem erhalten. Für die eine oder mehrere Einzelmessungen werden eine oder mehrere Kameras (41) mit einer strukturierten Beleuchtung (43) oder für mehrere Einzelmessungen eine oder mehrere Kameras (41) mit einer strukturierten Beleuchtung (43) und einer homogenen Beleuchtung (42) vorgesehen.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine für ein derartiges Verfahren geeignete Anordnung für ein Handhabungsgerät.
  • Die Automatisierungstechnik ist gekennzeichnet durch kürzere Produktlebenszyklen und eine erhöhte Typvarianz der zu fertigenden Erzeugnisse. Klassische Handhabungsgeräte, beispielsweise Industrierobotersysteme, decken aufgrund des hohen Engineeringaufwands diese Anforderungen immer unzureichender innerhalb eines Handhabungsprozesses ab. Die Realisierung von „pick und place” Aufgaben erfordert heutzutage eine teilespezifische Greiferkonstruktion und eine typabhängige Programmierung des Handhabungsgerätes. Dies steht einem schnellen Umstellen der Fertigung auf zusätzliche Typvarianten entgegen. Durch einen vermehrten Einsatz von Sensorsystemen kann erreicht werden, dass beispielsweise der Bewegungsablauf des Handhabungsgerätes zumindest in Teilprozessen des Handhabungsprozesses nicht mehr starr hinterlegt sein muss. Damit wird ermöglicht, dass das sensorunterstützte Handhabungsgerät flexibler in der Fertigung von Erzeugnissen eingesetzt werden kann, insbesondere wenn verschiedene Teile zu handhaben sind.
  • Aus den Unterlagen des Workshops „4. Workshop für OTS-Systeme in der Robotik" (Veranstalter: Fraunhofer Institut für Produktionstechnik und Automatisierung, Referenten: Peter Maschotta (Fa. Vision&Control), Bruno Fellhauer (Fa. Schunk), Vortrag: „Baukasten für intelligente, sehende und fühlende Greifer im OTS-Einsatz", Stuttgart den 2. November 2005) ist ein Greifer mit einer Kamera und einer LED-Beleuchtung im Greifer zwischen den Greiferbacken bekannt. Zusätzlich ist in einem der Greiferbacken ein Linienlaser mit Strahlumlenkung angeordnet. Die Greiferbacken besitzen an der Innenseite ein bekanntes Muster, welches in der Kamera sichtbar ist. Die Überdeckung des Musters durch ein gegriffenes Objekt wird mit Bildverarbeitung erkannt. Die Überwachung des Nahumfeldes vor den Greiferbacken erfolgt mit Hilfe der Laserlinie. Der Sensoraufbau ist nur bedingt für ein Navigieren des Greifers einsetzbar. So kann nur für geometrisch exakt zum Greifer passende Objekte (zum Beispiel ein Quader bei geraden Greiferbacken) die Greifposition während des Greifvorganges indirekt über die Muster an den Greifflächen bestimmt werden. Zusätzlich ist der Sensoraufbau anfällig gegenüber Oberflächenreflexe und Fremdlicht und liefert bei geringem Kontrastunterschied zwischen Werkstück und Greiffläche nur geringe Signalpegel.
  • Aus den Unterlagen des Workshops „Schnelle 3-D-Objektlageerkennung für den Griff in die Kiste" (Veranstalter: Fraunhofer Institut für Produktionstechnik und Automatisierung, Dipl.-Math. Techn. Thomas Ledermann, Stuttgart den 25. April 2008) wird ein sensorunterstütztes System zum Greifen unorientierter Objekte beschrieben. Die Sensorik ist stationär oberhalb der zu greifenden Objekte angebracht. Sie besteht aus einem schwenkbaren Laserscanner oder einem Triangulationsverfahren mit einer Kamera und ei ner Laserlinie. Die Sensorik nimmt in einem Scan-Vorgang eine 3D-Punktewolke der vorliegenden Objekte auf, segmentiert anhand dieser Daten die zu greifenden Objekte und ermittelt deren Lage. Die Lage wird entweder über Einfitten von regelmäßigen geometrischen Körpern (Kugel, Zylinder, Quader, etc.) in die 3D-Punkte-Wolke oder aber durch Umwandlung der 3D-Punkte-Wolke in ein Höhenbild gewonnen. Dabei wird das Höhenbild mit verschiedenen Ansichten einer Modelldatenbank (ermittelt aus einem CAD-Modell) verglichen. Anschließend wird ein Roboter mit passendem Greifer angesteuert und das erkannte Objekt gegriffen. Welche Position das gegriffene Objekt im Greifer einnimmt wird nicht erfasst. Ebenso ist für das Ablegen des Objektes in eine vorgesehene Ablage ein Lokalisieren der Ablage nicht vorgesehen. Des Weiteren wird auch beim Ablegen die relative Lage des Objektes zur Ablage nicht erfasst. Somit wird ein im Greifer verrutschtes Objekt bzw. ebenso Lage- und Fertigungstoleranzen des Objektes bzw. der Ablage beim Ablegen nicht berücksichtigt.
  • Der Stand der Technik beschreibt lediglich sensorunterstützte Einzellösungen innerhalb einzelner oder einiger zusammengefasster Teilprozesse eines kompletten Handhabungsprozesses. Eine durchgängige sensorunterstützte Umsetzung des kompletten Handhabungsprozesses, beispielsweise innerhalb eines Montageablaufes, ist bisher nicht berücksichtigt. Insbesondere zeigt der Stand der Technik kein durchgängiges ausschließlich sensorgeführtes Navigieren des Handhabungsgerätes während des kompletten Handhabungsprozesses.
  • Offenbarung der Erfindung
  • Vorteile
  • Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren vorzuschlagen, mit welchem eine vollautomatische Handhabung von Objekten, beispielsweise in einem Montageablauf, über den kompletten Handhabungsprozess realisiert werden kann. Insbesondere soll ein über den kompletten Handhabungsprozess sensorgeführtes Navigieren mit hoher Positionspräzision umgesetzt werden, so dass eine koordinatenbasierte Programmierung vollkommen entfällt.
  • Des Weiteren ist die Aufgabe eine für ein solches Verfahren einzusetzende Anordnung für ein Handhabungsgerät vorzuschlagen.
  • Durch das automatische Erkennen und Korrigieren von Lageabweichungen zwischen Werkstück und Objekt ergibt sich als weiterer Vorteil der Wegfall der Referenzierung zwischen Applikation und Handhabungssystem. Somit ist die Grundlage geschaffen, dass das Handhabungssystem für wechselnde Applikationen wirtschaftlich einsetzbar ist, weil kein Aufwand für Einrichten oder Justage bei Wiederinbetriebnahme erforderlich ist.
  • Darüber hinaus kann bei der Handhabung von Objekten teilweise auf die Anfertigung von Ablagenestern verzichtet werden, da keine definierte, wiederholbare Bereitstellungslage des Werkstücks erforderlich ist.
  • Diese Aufgaben werden erfindungsgemäß gelöst mit einem Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und einer Anordnung für ein Handhabungsge rät entsprechend den kennzeichnenden Merkmalen der unabhängigen Ansprüche.
  • Der Erfindung liegt der Gedanke zugrunde, dass bei einer koordinatenbasierten Programmierung der Nachteil besteht, dass der Bewegungsablauf eines Handhabungsgerätes, beispielsweise eines Roboters, starr ist und nicht auf Toleranzen in der Peripherie oder im zu handhabenden Objekt reagieren kann. Außerdem besteht grundsätzlich der Bedarf, dass die Handhabung unterschiedlicher Objekte durch eine angepasste Programmierung oder einen jeweils angepassten Greifertyp berücksichtigt werden muss.
  • Das erfindungsgemäße Verfahren sieht daher vor, dass ein räumliches Navigieren des Handhabungsgerätes während des kompletten Handhabungsprozesses durch ein Sensorsystem geführt wird. Dabei wird durch das Sensorsystem die Lage des Objektes und/oder einer Objektaufnahme gegenüber einem Bezugssystem des Handhabungsgerätes erfasst. Die Objektaufnahme entspricht dabei einer objektspezifisch zugeordneten Einheit, in welches das Objekt nach einem Greifen durch das Handhabungsgerät abgelegt wird und üblicher Weise dort in seiner Lage für weitere Fertigungsprozesse gehalten wird.
  • Das Sensorsystem wird in allen die Handhabung und Positionierung eines Objektes bestimmenden Teilprozessen innerhalb des Handhabungsprozesses eingesetzt. Dabei wird erfindungsgemäß vorgeschlagen, dass durch eine oder mehrere Einzelmessungen ein erster oder mehrere Messwerte über die Lage des Objektes und/oder der Objektaufnahme zu einem Bezugssystem erhalten werden. Bei mehreren Messwerten unterscheiden sich diese untereinander, indem sie auf unterschiedlichen Messinformationen bezogen auf das Objekt und/oder die Objektaufnahme basieren. Mehrere Messwerte werden dann mittels eines Auswertealgorithmus miteinander verknüpft, wobei dann die Lage des Objektes und/oder der Objektaufnahme genauer als bei den Einzelmessungen bestimmt wird. Dadurch ist ein Navigieren mit hoher Positionspräzision zu erreichen.
  • Des Weiteren wird erfindungsgemäß vorgeschlagen, dass für eine oder mehrere Einzelmessungen eine oder mehrere Kameras mit einer strukturierten Beleuchtung oder für mehrere Einzelmessungen eine oder mehrere Kameras mit einer strukturierten Beleuchtung und mit einer homogenen Beleuchtung vorgesehen werden.
  • Das erfindungsgemäße Verfahren geht davon aus, dass bei einem Handhabungsprozess ein Objekt innerhalb einer Szene mit einem Greifer gegriffen wird und in einer Objektaufnahme abgelegt wird. Als Szene ist das dem Handhabungsgerät vorliegende physikalische Umfeld gemeint. Dieses kann durch das Handhabungsgerät räumlich, insbesondere mit dem Greifer, erreicht werden. Zusätzlich beinhaltet der Handhabungsprozess folgende die Handhabung und Positionierung des Objektes bestimmenden Teilprozesse:
    • – Lokalisieren und Anfahren des Objektes und/oder der Objektaufnahme
    • – Überwachen des Greifraumes
    • – Erfassen der Lage des Objektes und/oder der Objektaufnahme vor dem Greifen
    • – Erfassen der Lage des Objektes und/oder der Objektaufnahme nach dem Greifen
    • – Erfassen der relativen Lage des Objektes zur Objektaufnahme
  • Das erfindungsgemäße Verfahren hat gegenüber dem Stand der Technik den Vorteil, dass eine vollautomatische Handhabung von Objekten über den kompletten Handhabungsprozess realisiert wird. Das Navigieren orientiert sich in günstiger Weise jederzeit sensorgeführt an der momentan vorliegenden Situation der Szene, insbesondere durch das Erfassen der Lage des Objektes und/oder der Objektaufnahme.
  • In vorteilhafter Weise kann somit ein Navigieren aus einer beliebigen Position des Greifers gestartet werden. Dies schließt auch einen Fernbereich zum Objekt mit ein, welcher nur durch die technische Möglichkeit des Sensorsystems zum Erfassen und Lokalisieren des Objektes in der Szene beschränkt wird.
  • Ein Vorteil zeigt sich auch darin, dass beliebige und/oder zueinander unterschiedliche Objekte flexibel gehandhabt werden können. Insbesondere auch dann, wenn deren örtliche Ausgangslage innerhalb der Szene zum Greifen und/oder die örtliche Lage der zum Ablegen zugehörigen Objektaufnahme in der Szene zueinander unterschiedlich sind.
  • Ein großer Vorteil ergibt sich auch dadurch, dass für ein zielsicheres Navigieren auch Störgrößen mitberücksichtigt werden. So können in günstiger Weise Störkanten in der Szene erkannt werden, beispielsweise beim Anfahren des Objektes und/oder der Objektaufnahme. Dadurch ist das Navigieren ohne Unterbrechung in einer beliebigen Szene möglich. Das gilt auch nach einem möglicherweise erfolgten Schlupf oder Verrutschen des Objektes beim oder nach dem Greifen. In vorteilhafter Weise erfolgt durch Berücksichtigung der Objektlage im Greifer ein nachfolgendes Ablegen des Objektes in die Objektaufnahme positionsgenau.
  • Besonders günstig erweist sich das Erfassen der relativen Lage des Objektes zur Objektaufnahme. Dadurch wird ermöglicht, dass ein Ablegen des Objektes in die Objektaufnahme weitgehend unabhängig von Lage- und Fertigungstoleranzen des Objektes und der Objektaufnahme durch ein positionskorrigiertes Navigieren zielgenau erfolgt. Gerade mit einer Spiel-, Übergangs- oder Presspassung zu fügendes Objekt innerhalb einer Objektaufnahme kann abgedeckt werden.
  • Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der in den unabhängigen Ansprüchen angegebenen kennzeichnenden Merkmale der Erfindung möglich.
  • Kurze Beschreibung der Zeichnungen
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnungen. Diese zeigen in:
  • 1 ein Ausführungsbeispiel der erfindungsgemäßen Anordnung für ein Handhabungsgerät mit einem Greifer in perspektivischer Darstellung
  • 2a die Anordnung aus 1 in perspektivischer Darstellung mit Blick auf eine erste Sensorgruppe
  • 2b die Anordnung aus 1 in perspektivischer Darstellung mit Blick auf eine zweite Sensorgruppe
  • 3 einen Ausschnitt des Greifers im Bereich der Grifffläche in perspektivischer Darstellung.
  • Ausführungsformen der Erfindung
  • In den Figuren sind gleiche Bauteile und Bauteile mit der gleichen Funktion mit den gleichen Bezugszeichen gekennzeichnet.
  • In 1 ist eine Anordnung 100 für ein Handhabungsgerät zur flexiblen Handhabung von Objekten gezeigt. Die Anordnung 100 umfasst einen Greifer 10. Dieser ist in Form eines Zweibackenzangengreifers ausgebildet und besteht aus. Greiferbacken 11 und einem Greiferblock 12. Des Weiteren können alternativ auch 3-Backenzangengreifer und Sauggreifersysteme eingesetzt werden. Prinzipiell sind auch Mehrgelenkfinger denkbar.
  • Über eine Anschlussschnittstelle 13 ist der Greifer 10 an ein Handhabungsgerät 20 montiert. Das Handhabungsgerät 20 kann beispielsweise ein Roboter sein. Im Bereich des Greifers 10 ist ein Sensorsystem 30 angeordnet. Das Sensorsystem 30 besteht aus verschiedenen Sensorkomponenten, die – zur Vereinfachung der Erläuterung – hier zu einer ersten und einer zweiten Sensorgruppe 40 und 50 zusammengefasst werden. Außerdem ist zur Verdeutlichung die erfindungsgemäße Anordnung 100 in 1 zusätzlich mit einem vom Greifer 10 gegriffenen Objekt 200 dargestellt. In gleicher Weise ist in der 1 auch eine Objektaufnahme 300 dargestellt, in welche das Objekt 200 nach einem Greifen abgelegt wird.
  • Die Sensorgruppe 40 ist parallel zur Greifachse A des Greifers 10 angeordnet. Dabei kann die Sensorgruppe 40 oder Teile der Sensorkomponenten auch an anderen Stellen am oder außerhalb des Handhabungsgerätes 20 angeordnet sein. Es ist darauf zu achten, dass eine Sensorwirkung der Sensorgruppe 40 oder der Sensorkomponenten zumindest einen Bereich vor dem Greifer 10 erfasst, welche nicht vom gegriffenen Objekt 200 abgedeckt ist. Die Sensorgruppe 50 dagegen ist im Greifer 10 im Bereich der Greiferbacken 11 vorgesehen. Als eine weitere vorteilhafte Anordnungsmöglichkeit der Sensorgruppe 50 oder derer Sensorkomponenten bietet sich der Übergang der Greiferbacken 11 zum Greiferblock 12 an.
  • In 2a ist die Anordnung aus 1 in perspektivischer Darstellung mit Blick auf die erste Sensorgruppe 40 gezeigt. Dabei umfasst die erste Sensorgruppe 40 zwei Stereokameras 41 mit einer homogenen und einer strukturierten Beleuchtung 42, 43. Als strukturierte Beleuchtung 43 wird ein Strukturprojektor vorgeschlagen. Eine alternative Ausführungsform sieht vor, dass nur eine homogene Beleuchtung angeordnet ist. Eine weitere Ausführungsform sieht den Einsatz nur der strukturierten Beleuchtung 43 in der Anordnung 100 vor. Ebenso können sich weitere Ausführungsformen zu den bisher genannten in der Anzahl der eingesetzten Kameras 41 unterscheiden. Denkbar ist der Einsatz einer Kamera 41. Hierbei muss jedoch die Kamera 41 zur strukturierten und/oder homogenen Beleuchtung kalibriert sein. Daher ist bevorzugt der Einsatz mehrerer Kameras 41, beispielsweise zwei Stereokameras vorgesehen.
  • Des Weiteren ist in der ersten Sensorgruppe 40 zusätzlich eine Monokamera 45 angeordnet.
  • In 2b ist die Anordnung aus 1 in perspektivischer Darstellung insbesondere mit Blick auf die zweite Sensorgruppe 50 gezeigt. Dabei umfasst die zweite Sensorgruppe 50 eine Monokamera 51 mit einer zur ihr kalibrierten strukturierten Beleuchtung 53. Für die strukturierte Beleuchtung wird ein Strukturprojektor vorgeschlagen. Die Monokamera 51 ist mittig an der Stirnseite des Greiferblocks 12 auf Seiten der Greiferbacken 11 angeordnet. Es sind weitere Anordnungsmöglichkeiten denkbar, bei welchen die Monokamera 51 das Objekt 200 in ihrem Sichtbereich erfasst. Des Weiteren sind in der zweiten Sensorgruppe 50 zusätzlich ein ortsauflösender Kraftsensor 55 und eine taktile Tastmatrix 56 vorgesehen. Dabei ist der ortsauflösende Kraftsensor 55 möglichst nah an den Griffflächen 57 in den Greiferbacken 11 angeordnet. Denkbar ist auch eine Anordnung im Übergang der Greiferbacken 11 zum Greiferblock 12 oder im Greiferblock 12 selbst.
  • In 3 ist ein Ausschnitt des Greifers 10 im Bereich der Grifffläche 57 gezeigt. Die Grifffläche 57 ist in einem großen Bereich als taktile Tastmatrix 56 ausgebildet. Die taktile Tastmatrix 56 besteht aus Sensorelementen, die durch Detektion des Objektes 200 ansprechen. Durch eine Aneinanderreihung von vielen Sensorelementen in einer Matrixstruktur ergibt sich eine „fühlende” Grifffläche 57. Die taktile Tastmatrix 56 kann dabei aus optischen, piezoelektrischen, magnetoelastischen, induktiven, kapazitiven oder einer mit resonanten Kraftsensoren aufgebauten Matrix bestehen.
  • Um einen vollautomatischen Handhabungsprozess mit einem Handhabungsgerät 20 zu ermöglichen, berücksichtigt das erfindungsgemäße Verfahren einen durchgängigen Einsatz eines Sensorsystems 30 innerhalb allen, insbesondere die Handhabung und Positionierung des Objektes 200 bestimmenden Teilprozessen eines kompletten Handhabungsprozesses.
  • So umfasst das Verfahren als einen Teilprozess das Lokalisieren und Anfahren des Objektes 200. Einerseits müssen zu Beginn des Handhabungsprozesses zueinander unterschiedliche Objekte 200 in der Szene identifiziert werden. Zum anderen können die Objekte 200 innerhalb der Szene beliebig angeordnet sein. Zum Lokalisieren eines Objektes 200 wird eine bildauswertende Einheit eingesetzt. Dafür eignet sich die Monokamera 45. Üblicherweise befindet sich der Greifer 10 in diesem Teilprozess in einem Fernbereich des Objektes 200. Der Fernbereich definiert hierbei einen Abstand des Greifers 10 zum Objekt 200 in welchem sich das Objekt 200 in der Regel nicht mehr im Schärfentiefenbereich der Stereokameras 41 befindet.
  • Zum Lokalisieren des Objektes werden mit Hilfe der Monokamera 45 (z. B. Weitwinkelobjektiv mit f = 4.2 mm) beispielsweise mit sehr schnellen Referenz- bzw. Differenzbildmethoden von einem eingelernten Hintergrund der Szene abweichende Objekte 200 gesucht und mit dem Greifer 10 näher angefahren. Bei der Referenz- bzw. der Differenzbildmethode wird eine Referenzaufnahme aus einer Referenzlage von dem Hintergrund der Szene ohne die zu suchenden Objekte aufgenommen. Während des Handhabungsprozesses wird aus der Referenzlage erneut ein Bild aufgenommen, diesmal allerdings mit den zu suchenden Objekten 200. Da der Hintergrund der Selbe ist, kann man bei Abweichungen der Referenzaufnahme zur aktuellen Aufnahme auf ein oder mehrere Objekte 200 schließen. Die Abweichung wird im einfachsten Fall mittels der Differenz der beiden Bilder ermittelt und ein zu greifendes Objekt 200 identifiziert.
  • Bevorzugt nimmt die Monokamera 45 nur ein einzelnes Bild pro kompletten Handhabungsprozess eines Objektes 200 auf. Mittels dieses Bildes wird das gefundene mögliche zu greifende Objekt 200 in der Szene lokalisiert bzw. bei mehreren ein Objekt 200 entsprechend einer definierten Auswahlvorgabe (z. B. das nächste zum Greifer 10) bestimmt. Danach erfolgt ein grobes Platzieren des Greifers 10 und der Stereokameras 41 in den Nahbereich des Objektes 200. Der Nahbereich definiert hierbei einen Abstand des Greifers 10 zum Objekt 200 in welchem sich das Objekt 200 im Schärfentiefenbereich der Stereokameras 41 befindet.
  • Sollte kein Objekt 200 von der Monokamera 45 gefunden werden, so muss das Handhabungsgerät 20, beispielsweise ein Roboter, warten und weitere Bilder mit der Monokamera 45 aufnehmen bis mind. ein Objekt 200 gefunden wurde. Alternativ meldet der Roboter 20 einen Fehler, wendet sich anderen Aufgaben zu oder verfährt zu einer anderen Position um das Lokalisieren und Anfahren des Objektes 200 innerhalb der Szene mittels der Monokamera 45 erneut anstoßen zu können. In gleicher Weise lässt sich dieser Teilprozess auch beim Lokalisieren und Anfahren der zum gefundenen Objekt 200 zugehörigen Objektaufnahme 300 realisieren.
  • Erfindungsgemäß ist das Überwachen des Greifraumes als weiterer Teilprozess des kompletten Handhabungsprozesses berücksichtigt. Das Überwachen des Greifraumes erfolgt dabei vor und während einer Bewegung des Greifers 10. Ein Beispiel ist das Anfahren des Objektes 200 mit dem Greifer 10 aus dem Fernbereich. Als Greifraum wird vor allem der Raum vor und neben dem Greifer 10 verstanden. Die Gefahr einer Kollision mit Fremdobjekten innerhalb des Greifraumes kann vorzeitig erkannt werden. Entweder wird die Bewegung des Greifers angehalten oder es erfolgt ein Platzieren des Greifers 10 an den Fremdobjekten vorbei in den Nahbereich des zu greifenden Objektes 200. Zum Überwachen des Greifraumes wird eine bildauswertende Einheit eingesetzt. Geeignet sind hierzu die Stereokameras 41 mit einer homogenen und/oder strukturierten Beleuchtung 42, 43. Des Weiteren können für ein lückenloses Überwachen des 3D-Raumes in der Szene vor, neben und über dem Greifer 10 zusätzlich Kameras, beispielsweise im Ring um den Greifer 10, angeordnet sein. Das Erkennen eines Fremdobjektes kann dabei auf Basis von Abstandsdaten des Greifers 10 zum Fremdobjekt erfolgen. Dabei resultieren die Abstandsdaten aus einer Auswertung von mit diesen zusätzlichen Kameras und/oder den Stereokameras 41 aufgenommenen Bildaufnahmen.
  • Nach dem Grobpositionieren des Greifers 10 in den Nahbereich des Objektes 200 und/oder der Teilaufnahme 300 wird eine Feinpositionierung des Greifers 10 zum Objekt 200 bzw. der Objektaufnahme 300 durchgeführt. Zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300, insbesondere wenn sich der Greifer 10 im Nahbereich des Objektes 200 oder der Objektaufnahme 300 befindet, bestehen verschiedene technische Möglichkeiten. Hierzu wird eine bildauswertende Einheit eingesetzt. Vorgeschlagen wird der Einsatz der Stereokameras 41. Dabei umfasst der Nahbereich des Objektes 200 bzw. der Objektaufnahme 300 einen Schärfentiefenbereich der Stereokameras 41.
  • Zur Beleuchtung des Objektes 200 und/oder der Objektaufnahme 300 wird hierzu die homogene Beleuchtung 42 vorgesehen (z. B. ein 100 W-High-Power-LED-Array mit 6.500 lm). Als Aus wertung wird zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300 ein mit den Stereokameras 41 aufgenommenes Stereobild mit einem homogen ausgeleuchteten Objekt 200 verwendet. In den beiden Bildern werden lokale Merkmale (z. B. Ecken oder markant andersfarbige kleine Regionen, wie z. B. ein Loch) als Texturinformation des Objektes 200 und/oder der Objektaufnahme 300 extrahiert. Konkret werden aus den Stereobildern mit Texturinformationen 3D-Punkte erzeugt.
  • Zusätzlich oder Alternativ dazu kann die Beschreibung des Objektes 200 und/oder der Objektaufnahme 300 mittels eines äußeren und inneren Hüllumfangs verwendet werden. Prinzipiell muss in diesem Falle das Objekt 200 und/oder die Objektaufnahme 300 zuvor im Stereobild segmentiert werden. Eine weitere Möglichkeit ist ein Grauwerthistogramm über die zum Objekt 200 und/oder der Objektaufnahme 300 zugehörigen Bildpixel.
  • Durch Vergleich mit innerhalb einer Einlernphase aus einem Trainingsvorgang hinterlegten Ansichtsmodellen wird dann die Lage des Objektes 200 und/oder der Objektaufnahme 300 zu einem Bezugssystem ausgewertet. Dabei stellen die Ansichtsmodelle das Objekt 200 und/oder die Objektaufnahme 300 mit den Texturinformationen aus verschiedenen Ansichten bereit. Konkret enthalten die Ansichtsmodelle hinterlegte 3D-Punkte der verschiedenen Ansichten des Objektes 200 und/oder der Objektaufnahme 300.
  • Ebenso kann zur Beleuchtung des Objektes 200 und/oder der Objektaufnahme 300 die strukturierte Beleuchtung 43 eingesetzt werden. Als Auswertung wird dann zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300 die Rekonstruktion eines 3D-Abstandsbildes mit einem das Objekt 200 und/oder die Objektaufnahme 300 überlagertem Struktur muster vorgesehen. Weitere Details sind den DE-Patentanmeldungen 10 2008 002 730.8 und 10 2008 002 725.1 zu entnehmen, so dass von einer weiteren Beschreibung der Funktionsweise abgesehen wird. Das Verfahren liefert sehr gute 3D-Bilder sowohl bei glatten, metallischen Oberflächen als auch bei matten, reflexarmen Konturen. Eine Kombinationsmöglichkeit zusammen mit einer homogenen Beleuchtung 42 ist möglich. Das 3D-Bild beinhaltet dann insbesondere Tiefeninformationen zum Objekt 200 und/oder der Objektaufnahme 300. Durch Vergleich mit einem innerhalb einer Einlernphase aus einem Trainingsvorgang hinterlegtem Referenzmodell wird die Lage des Objektes 200 und/oder der Objektaufnahme 300 zu einem Bezugssystem ausgewertet. Dies kann z. B. durch ein Matchen des Referenzmodells in das 3D-Bild erfolgen.
  • Generell wird nach Auswertung des mit den Stereokameras 41 aufgenommenen 3D-Bildes der Lageunterschied des Handhabungsgerätes 20 mit dem Greifer 10 zur eingelernten Lage einer Referenzaufnahme bzw. dem Referenzmodel bezogen auf das Objekt 200 und/oder die Objektaufnahme 300 bestimmt. Danach kann durch eine Ausgleichsbewegung dieses Lageunterschiedes gegenüber dem eingelernten Zustand das Objekt 200 innerhalb eines hierfür vorgesehenen weiteren Teilprozess gegriffen werden.
  • Es wird auch die Lage des Objektes 200 nach dem Greifen im Greifer 10 als ein weiterer Teilprozess des kompletten Handhabungsprozesses erfasst. Für eine technische Umsetzung sind verschiedene Möglichkeiten gegeben. Hierzu wird eine bildauswertende Einheit eingesetzt.
  • Eine Ausführungsvariante des Verfahrens sieht hierfür vor, die Stereokameras 41 mit der homogenen und/oder der struk turierten Beleuchtung 42, 43 zu verwenden. Ihre Funktionsweise zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300 entspricht der oben ausgeführten Beschreibung. Zur Bestimmung der Lage des Objektes 200 im Greifer 10 reicht im Allgemeinen das Erfassen nur eines Teiles des gegriffenen Objektes 200 aus. Das ist dann der Fall, wenn die Stereokameras 41 mit der Beleuchtung 42, 43 achsparallel seitlich am Greifer 10 angeordnet ist. Als Auswertung dient dann wiederum das Stereobildpaar mit einem homogen ausgeleuchtetem oder einem strukturüberlagerten Objekt 200 und/oder Objektaufnahme 300. Dadurch kann bezüglich einer innerhalb einer Einlernphase in einem Trainingsvorgang eingelernten Ideallage eine translatorische Verschiebung des Objektes 200 parallel zu den Greiferbacken 11 und/oder in Richtung der Greiferachse A bestimmt werden.
  • Eine weitere Ausführungsvariante des Verfahrens zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300 sieht vor, die Monokamera 51 mit der zu ihr kalibrierten strukturierten Beleuchtung 53 zu verwenden. Alternativ kann die strukturierte Beleuchtung 53 auch durch die strukturierte Beleuchtung 43 ersetzt werden. Das mit der Monokamera 51 aufgenommene Ansichtsbild mit dem das Objekt 200 überlagerte Strukturmuster dient dann als Auswertung zur Bestimmung der Lage des Objektes 200. Dabei wird ein innerhalb einer Einlernphase in einem Trainingsvorgang hinterlegtes Referenzmodell, in das Abstandsbild des Objektes 200 aus der aktuellen Blickrichtung eingepasst. Somit kann die Lage des Objektes 200 zu einem Bezugssystem und/oder zu einer in den Referenzbildern aufgezeigten Ideallage bestimmt werden.
  • Eine weitere Ausführungsvariante des Verfahrens zum Erfassen der Lage des Objektes 200 im Greifer 10 ist der Einsatz der taktilen Tastmatrix 56. Bei einem Kontakt mit dem Objekt 200 nach dem Greifen sprechen die kontaktierten Sensorelemente an. Eine Auswertung der taktilen Tastmatrix 56 bezüglich der Positionen, an denen die Sensorelemente ansprechen, korrelieren mit der Lage des Objektes 200 im Greifer 10 zu einem gemeinsamen Bezugssystem.
  • Generell wird durch Erfassen der Lage des Objektes 200 im Greifer 10 eine Toleranzerfassung der Greiferposition erreicht. Ebenso wird ein Schlupf oder Verrutschen des Objektes 200 innerhalb des Greifers 10 auch in den nachfolgenden Teilprozessen erkannt. Dadurch wird ermöglicht, dass das Objekt 200 in einer während eines Trainingsvorganges eingelernten Greifposition des Greifers 10 mittels einer Ausgleichsbewegung des Greifers 10 aus der tatsächlichen zur eingelernten Greifposition gegriffen werden kann. Ebenso kann die Lage des Objektes 200 im Greifer 10 gespeichert werden und für einen Lageausgleich beim Ablegen des Objektes 200 in die Objektaufnahme 300 in allen sechs 3D-Raumfreiheitsgraden korrigierend berücksichtigt werden.
  • Vorzugsweise ist die Monokamera 51 mit einer festen Brennweite für den Nahbereich ausgeführt. Denkbar ist auch ein Motorzoom-Objektiv, so dass die bereits beschriebene Funktion der Monokamera 45 zur Lokalisierung eines Objektes 200 in einer Szene ersetzend übernommen wird. Im Vergleich zur festen Brennweite sind Motorzoom-Objektive jedoch schwerer, teurer und haben einen hohen Verschleiß. Zusätzlich erfolgt die Umstellung von Nah- auf Fernbereich sehr langsam.
  • Von Vorteil ist, wenn innerhalb des Teilprozesses des Greifens die Greifkraft, beispielsweise während der Schließbewegung der Greiferbacken 11, überwacht und geregelt wird. Dadurch kann das Objekt 200 mit der notwendigen Kraft sicher gehalten werden. Erfindungsgemäß sind hierzu kraftauflösende Sensoren in den Greifbacken 55 des Greifers 10 vorgesehen. In idealer Weise wird hierzu der oben beschriebene ortsauflösende Kraftsensor 55 verwendet. Eine weitere Möglichkeit zur Detektion der Greifkraft bietet eine Auswertung des Motorstroms. Ein ansteigender Motorstrom korreliert mit einer steigenden Greifkraft.
  • Die 1 zeigt in der Anordnung 100 eine Ausführungsform, in welcher die Stereokameras 41 mit der homogenen und der strukturierten Beleuchtung 42, 43, die Monokamera 51 und die taktile Tastmatrix 56 angeordnet sind. Zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300, insbesondere wenn sich der Greifer 10 im Nahbereich des Objektes 200 oder der Objektaufnahme 300 befindet, sind somit in der Anordnung 100 redundante Einheiten vorhanden. Weitere Ausführungsvarianten der Anordnung 100 können eine Reduzierung dieser redundanten Einheiten vorsehen.
  • Als weiterer Teilprozess des kompletten Handhabungsprozesses ist das Ablegen des Objektes 200 in die Objektaufnahme 300 berücksichtigt. In einem ersten Schritt ist ein Lokalisieren der Objektaufnahme 300 notwendig. Wie bereits beim Lokalisieren des Objektes 200 wird in gleicher Weise die Monokamera 45 vorgesehen.
  • Eine alternative Ausführungsvariante des Verfahrens sieht dagegen die Verwendung der Stereokameras 41 mit der homogenen und/oder strukturierten Beleuchtung 42, 43 vor. Ihre Funktionsweise zum Lokalisieren des Objektes 200 und/oder der Objektaufnahme 300 ist bereits weiter oben beschrieben. In diesem Fall besteht eine erste Möglichkeit die Objektaufnahme 300 wie ein Objekt 200 zu behandeln. Dabei verfährt das Handhabungsgerät 20 entsprechend so lange, bis sich die mit den Stereokameras 41 aufgenommenen Bilder mit einer aus einem Trainingsvorgang hinterlegten Referenzaufnahme für die Objektaufnahme 300 decken. Konkret verfährt der Greifer 10 knapp über der Objektaufnahme 300 so lange, bis das projizierte Strukturmuster des Projektors 43 an der Objekt- und der Fügekante der Objektaufnahme 300 kontinuierlich übergehend ist. Dabei erscheint das auf die Objektaufnahme 300 projizierte Strukturmuster nicht mehr abgesetzt zum ebenfalls auf das Objekt 200 projizierten gleichen Strukturmuster. Besteht die Gefahr, dass die Objektaufnahme 300, beispielsweise durch das gegriffene Objekt 200, im Sichtbereich der Stereokameras 41 verdeckt wird, kann eine Vorposition der Objektaufnahme 300 gespeichert werden. Dabei wird die Objektaufnahme 300 noch vor dem Greifen des Objektes 200 mit dem Greifer 10 in der Vorposition erfasst.
  • Als eine weitere Möglichkeit zum Lokalisieren der Objektaufnahme 300 wird vorgeschlagen, die Objektaufnahme 200 mit Markern zu versehen und diese dann in aus einem Trainingsvorgang hinterlegten Referenzaufnahmen für die Objektaufnahme 300 zu nutzen. Die Marker sind an der Objektaufnahme 300 so zu positionieren, dass sie durch ein gegriffenes Objekt 200 nicht verdeckt werden.
  • Sobald aus dem mit den Stereokameras 41 aufgenommenem Stereobild und dem daraus rekonstruierten 3D-Bild (bezogen auf das Objekt 200 und/oder die Objektaufnahme 300) die Unter schiedslage zu einer Referenzaufnahme bzw. dem Referenzmodell bestimmt worden ist, kann ein Korrekturwert für die Position des Greifers 10 bestimmt werden. Dadurch wird das Objekt 200 unter Berücksichtigung der zur Referenzaufnahme abweichenden Lage des gegriffenen Objektes 200 in die Objektaufnahme 300 abgelegt.
  • Sollte das Ablegen in eine Objektaufnahme 300 mit mehreren möglichen Ablagepositionen folgen, wird die Objektaufnahme 300 bis zur Übereinstimmung mit einer Referenzaufnahme für die Objektaufnahme 300 mit dem Greifer 10 angefahren. Danach verfährt der Greifer 10 je nach Ablageposition ein Offset, um ein gegriffenes Objekt 200 in eine vorgesehene Ablageposition der Objektaufnahme 300 abzulegen. Derartige Objektaufnahmen 300 mit mehreren Ablagepositionen sind beispielsweise in der Handhabungstechnik oft verwendete sogenannte Trays.
  • Generell sieht eine erfindungsgemäße Ausführungsform des Verfahrens vor, dass der ortsauflösende Kraftsensor 55 beim Ablegen des Objektes 200 in eine Objektaufnahme 300 dazu benutzt wird, den Kontakt des Objektes 200 mit der Objektaufnahme 300 zu erkennen und daraufhin den Ablegevorgang zu beenden.
  • Ebenfalls berücksichtigt sind Anwendungsfälle des Handhabungsprozesses, in welchen das Ablegen des Objektes 200 in die Objektaufnahme 300 in Form eines Fügens erfolgt. Dabei weisen das Objekt 200 und die Objektaufnahme 300 an Ihrer jeweiligen Fügestelle Maßtoleranzen auf. Diese bilden dann im gefügten Zustand des Objektes 200 und der Objektaufnahme 300 eine Spiel-, Übergangs- oder Presspassung auf. In diesem Fall wird der ortsauflösender Kraftsensor 55 verwendet. Für den ortsauflösenden Kraftsensor 55 wird der Einsatz von Dehnungsmessstreifen vorgeschlagen. Alternative Messverfahren wie piezoresistiv, kapazitiv, induktiv oder auch optisch sind ebenfalls denkbar. Der Kraftsensor 55 wird dann beim Fügen des Objektes 200 in die Objektaufnahme 300 dazu verwendet, Kontakte des Objektes 200 mit der Objektaufnahme 300 zu detektieren. Durch eine Auswertung der beim Fügen auf den Kraftsensor 55 wirkenden Fügekräfte wird der Fortschritt des Fügevorganges und die relative Lage des Objektes 200 zur Objektaufnahme 300 erkannt. Dadurch kann ein Korrekturwert bestimmt werden, durch welchen die Fügerichtung und -kraft des Greifers 10 derart angepasst werden, so dass ein ausgerichtetes, beispielsweise ein zentrisches Fügen des Objektes 200 in die Objektaufnahme 300 erfolgt.
  • Dabei bilden der ortsauflösende Kraftsensor 55 eine Alternative zum oben beschriebenen bildgeführten Fügen mit der Stereokameras 41. Insbesondere gilt das dann, wenn auf Grund von Abschattungen (verdecktes Fügen) keine verwertbare Bildaufnahme des Objektes 200 und/oder der Bildaufnahme 300 mit den Stereokameras 41 erhalten werden kann.
  • Die taktilen und bildauswertenden Sensoren können auch kombiniert werden. Hierbei erfolgt ein Fügevorgang in mehreren Stufen. Die Grobpositionierung wird anhand der Stereokameras 41 geregelt, die Feinpositionierung erfolgt kraftgeregelt anhand der Auswertung des Kraftsensors 55.
  • Generell unterstützt der Einsatz des Kraftsensors 55 die bildauswertenden Sensoren beim Erfassen der relativen Lage des Objektes 200 zur Objektaufnahme 300. Fertigungs- und Lagetoleranzen des Objektes 200 und/oder der Objektaufnahme 300 können somit für ein positionsgenaues Ablegen korrigierend berücksichtigt werden. Prinzipiell sollen bei Ferti gungs- und/oder Lagetoleranzen, die geringer sind als die Genauigkeit der bildauswertenden Einheit, Kraftsensoren eingesetzt werden.
  • Grundsätzlich sieht das erfindungsgemäße Verfahren auch die Erstellung von Referenzbildern und/oder Referenzmodellen in einem Trainingsvorgang vor. Diese sind erforderlich, um durch einen Vergleich mit dem von der bildauswertenden Einheit 41, 45, 51 aufgenommenen Bilder auf die Lage des Objektes 200 und/oder Objektaufnahme 300 hinsichtlich eines Bezugssystems zu schließen.
  • Der Trainingsvorgang erfolgt in einer Einlernphase des Objektes 200 und/oder der Objektaufnahme 300, wobei die Referenzbilder bzw. Referenzmodelle vorzugsweise in einer Datenbank hinterlegt werden. Besonders günstig erweist es sich, wenn die Referenzaufnahmen für jede mögliche Griffposition des Objektes 200 mit dem Greifer 10 erstellt sind. Dadurch sind auch die Greifpunkte, insbesondere als eine Ideallage des Objektes 200 zum Greifer 10, definiert.
  • Es ist dabei möglich die Referenzbilder und -modelle durch das Sensorsystem 30 selbst zu erstellen. Daher kann das Sensorsystem 30 sowohl für die Handhabung verschiedenster Objekte 200 und/oder Objektaufnahmen 300, als auch für das Einlernen und die anschließende Erkennung dieser in der Szene genutzt werden.
  • Konkret erfolgt ein Trainingsvorgang zum Erstellen von Referenzbildern und -modellen für einen Vergleich mit den mit den Stereokameras 41 und der homogenen bzw. strukturierten Beleuchtung 42, 43 aufgenommenen 3D-Bilder, indem das Objekt 200 oder die Objektaufnahme 300 auf einen bekannten Hintergrund (z. B. Blue-Box-Prinzip) platziert wird. Das Handhabungsgerät 20 verfährt in einer Halbkugel oder – Sphäre um das Objekt 200 oder die Objektaufnahme 300. Dabei nimmt es viele verschiedene Ansichten des Objektes 200 oder der Objektaufnahme 300 mit der homogenen bzw. der strukturierten Beleuchtung 42, 43 auf. Durch eine Trennung des Objekts 200 oder der Objektaufnahme 300 vom Hintergrund (z. B. Farbsegmentierung bei homogener Farbunterlage) können charakteristische beschreibende Texturinformationen über das Objekt 200 oder die Objektaufnahme 300 extrahiert werden (z. B. die geometrische Struktur oder die Textur des Objektes 200 oder der Objektaufnahme 300).
  • Ein Kalibriervorgang zum Erstellen von Referenzbildern für einen Vergleich mit dem mit der Monokamera 51 und der strukturierten Beleuchtung 43, 53 aufgenommenen 2D-Bild erfolgt, indem jedes Strukturmusterelement zum Kamerabild durch Projektion auf eine Referenzebene kalibriert wird. Dabei wird die Referenzebene während des Kalibriervorgangs in unterschiedlichen definierten Abständen zur Monokamera 51 aufgenommen. Durch Triangulation kann für jedes projizierte Strukturmusterelement der Abstand zur Kameraebene bestimmt werden. In der Einlernphase wird das Objekt 200 im Trainingsvorgang in einer Ideallage gegriffen und das Strukturmuster mit der Monokamera 51 aufgenommen. Daraus werden durch Triangulation das Abstandsbild und daraus die ideale 3D-Objektlage berechnet.
  • Prinzipiell erfolgt nach dem erfindungsgemäßen Verfahren ein räumliches Navigieren des Handhabungsgerätes zum Greifen und/oder Ablegen des Objektes 200 in die Objektaufnahme 300 mit dem Sensorsystem 30 durch Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300. Besonders vorteilhaft erweist sich ein Navigieren, indem das Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300 iterativ durchgeführt wird. Die Auswertung der von der bildauswertenden Einheit aufgenommenen Bildfolgen erhöht dabei zusätzlich die Genauigkeit und Robustheit des erfindungsgemäßen Verfahrens innerhalb der Teilprozesse.
  • In Weiterbildung des erfindungsgemäßen Verfahrens wird vorgeschlagen, dass durch eine oder mehrere Einzelmessungen ein oder mehrere Messwerte über die Lage des Objektes 200 und/oder der Objektaufnahme 300 zu einem Bezugssystem erhalten werden. Dabei basieren mehrere Messwerte auf zueinander unterschiedlichen Messinformationen. Mehrere Messwerte werden dann mittels eines Auswertealgorithmus miteinander verknüpft, wobei dann die Lage des Objektes 200 und/oder der Objektaufnahme 300 genauer als bei den Einzelmessungen bestimmt wird.
  • Letztendlich werden also verschiedene Messinformationen über dasselbe Objekt 200 und/oder dieselbe Objektaufnahme 300 miteinander verknüpft. Die Messinformationen bei den Einzelmessungen unterscheiden sich zueinander, indem zum Beispiel zueinander unterschiedliche Texturinformationen des Objektes 200 und/oder der Objektaufnahme 300 erfasst werden. Eine alternative Möglichkeit besteht darin, dass unterschiedliche Messverfahren verwendet werden.
  • Generell sind erfindungsgemäß für die Einzelmessungen zur Bestimmung der Lage des Objektes 200 und/oder der Objektaufnahme 300 die Kombination von mindestens zwei der oben jeweils für einen Teilprozess beschriebenen technischen Umsetzungen zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300 möglich. Von einer Auflistung der Kombinationsmöglichkeiten wird an dieser Stelle abgesehen.
  • Prinzipiell ist die Kombination von rein bildauswertenden Verfahren, von bildauswertenden mit nicht bildauswertenden Verfahren und von rein nicht bildauswertenden Verfahren möglich. Entsprechende den Kombinationsmöglichkeiten sind demnach weitere Ausführungsformen der in 1 gezeigten Anordnung 100 möglich.
  • In Weiterbildung des erfindungsgemäßen Verfahrens wird vorgesehen, dass bei mehreren Einzelmessungen zur Bestimmung der Lage des Objektes 200 und/oder der Objektaufnahme 300 diese jeweils zueinander zeitunterschiedlich und/oder bei geometrisch unterschiedlicher Lage des Objektes 200 und/oder der Objektaufnahme 300 zum Bezugssystem durchgeführt werden. Somit kann das erfindungsgemäße Verfahren während einer Bewegung des Handhabungsgerätes 20 betrieben werden.
  • Beispielsweise sieht eine bevorzugte Ausführungsvariante vor, die homogene Beleuchtung 42 und die strukturierte Beleuchtung 43 im schnellen Wechsel, beispielsweise mit 1–10 Hz, anzusteuern. Für eine Auswertung ist demnach ein mit den Stereokameras 41 aufgenommenes Stereobildpaar vorgesehen. Dabei liegt aus einer Einzelmessung ein Messwert bei einem homogen ausgeleuchtetem Objekt 200 und/oder Objektaufnahme 300 vor. Aus einer weiteren Einzelmessung liegt ein weiterer Messwert bei einem das Objekt 200 und/oder die Objektaufnahme 300 überlagerten Strukturmuster vor.
  • Als Alternative wird vorgeschlagen, bei mehreren Einzelmessungen diese zueinander jeweils zeitgleich und/oder bei einer gleichbleibenden geometrischen Lage des Objektes 200 und/oder der Objektaufnahme 300 zum Bezugssystem durchzuführen.
  • Für den Auswertealgorithmus wird die Verwendung vorzugsweise eines statistischen Algorithmus vorgeschlagen, insbesondere Approximationen des Bayes-Filter wie z. B. Kalman- oder Partikelfilter.
  • In Weiterbildung des erfindungsgemäßen Verfahrens ist vorgesehen, dass im Auswertealgorithmus bei mehreren Messwerten über die Lage des Objektes 200 und/oder der Objektaufnahme 300 diese jeweils mit unterschiedlicher Gewichtung berücksichtigt werden. Dadurch wird die Qualitätsgüte jeweils einer Einzelmessung gewichtet berücksichtigt. Zur Abschätzung einer Qualitätsgüte kann bei den Stereokameras 41 mit homogener Beleuchtung 42 die Differenz zwischen dem gefundenen Referenzbild und der aktuellen Ansicht des Objektes 200 und/oder der Objektaufnahme 300 herangezogen werden. Bei den Stereokameras 41 mit der strukturierten Beleuchtung 43 kann die Qualitätsgüte anhand des Vergleichsfehlers zum Referenzmodell abgeleitet werden. Die Schätzung der Qualitätsgüte ist Bestandteil des Auswertealgorithmuses.
  • Weiterhin kann sich das Sensorsystem 30 flexibel an verschiedene Objekte 200 unterschiedlicher Ausprägung anpassen. Weist ein Objekt 200 ausgeprägte Texturmerkmale auf, so wird eine Einzelmessung basierend auf einer Bildaufnahme mit einem homogen ausgeleuchteten Objekt 200 im Auswertealgorithmus mit mehr Gewicht berücksichtigt. Dominiert dagegen die Strukturinformation im Objekt 200 (z. B. ein einfarbiges Objekt) so wird eine Einzelmessung basierend auf einer Bildaufnahme mit einem strukturüberlagernden Objekt 200 im Auswertealgorithmus stärker gewichtet.
  • Generell werden alle Komponenten der erfindungsgemäßen Anordnung vorzugsweise zu einem fixen Referenzpunkt kalibriert. Bevorzugt wird bei einem Roboter 20 hierfür der Tool Center Point (TCP) bzw. der Gripper Center Point (GCP – Greifpunkt) vorgesehen.
  • Prinzipiell ist von Vorteil, wenn die für die Einzelmessungen verwendeten Sensorkomponenten in ihrer relativen Lage zueinander konstant gehalten werden. Dadurch ist eine Kalibrierung aller Sensorkomponenten zum Bezugssystem nur einmal vor Beginn der Messungen zum Erfassen der Lage des Objektes 200 und/oder der Objektaufnahme 300 erforderlich.
  • Der durchgängig sensorgeführte Ansatz für den kompletten Handhabungsprozess ermöglicht eine sehr flexible Handhabung unterschiedlichster Objekte 200. Dadurch, dass immer die Lage des Objektes 200 bis zum Ablegen in einer Objektaufnahme 300 erfasst wird, ist eine Positionsgenauigkeit auch bei Einsatz eines universellen Greifers 10 immer gewährleistet.
  • Bevorzugt arbeitet der Greifer 10 mit einem Kraftschluss, so dass keine Anpassung der Greiferbacken 11 an das Objekt 200 erfolgen muss. Um das Einsatzspektrum zu vergrößern kann auf den Greiferbacken 11 auch eine nachgiebige Schicht appliziert werden, um das Haftreibungsverhältnis zu verbessern. Diese Schicht enthält idealer Weise im Bereich der Griffflächen 57 die Tastmatrix 56.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 102008002730 [0045]
    • - DE 102008002725 [0045]
  • Zitierte Nicht-Patentliteratur
    • - „4. Workshop für OTS-Systeme in der Robotik” (Veranstalter: Fraunhofer Institut für Produktionstechnik und Automatisierung, Referenten: Peter Maschotta (Fa. Vision&Control), Bruno Fellhauer (Fa. Schunk), Vortrag: „Baukasten für intelligente, sehende und fühlende Greifer im OTS-Einsatz”, Stuttgart den 2. November 2005 [0003]
    • - „Schnelle 3-D-Objektlageerkennung für den Griff in die Kiste” (Veranstalter: Fraunhofer Institut für Produktionstechnik und Automatisierung, Dipl.-Math. Techn. Thomas Ledermann, Stuttgart den 25. April 2008 [0004]

Claims (26)

  1. Verfahren zur flexiblen Handhabung von Objekten (200) mit einem Handhabungsgerät (20), wobei ein Objekt innerhalb einer Szene mit einem Greifer (10) gegriffen und in eine Objektaufnahme (300) abgelegt wird, mit den Teilprozessen – Lokalisieren und Anfahren des Objektes (200) und/oder der Objektaufnahme(300) – Überwachung des Greifraumes – Erfassen der Lage des Objektes (200) und/oder der Objektaufnahme (300) vor dem Greifen – Erfassen der Lage des Objektes (200) und/oder der Objektaufnahme (300) nach dem Greifen – Erfassen der relativen Lage des Objektes (200) zur Objektaufnahme (300) dadurch gekennzeichnet, dass ein räumliches Navigieren des Handhabungsgerätes (20) in den Teilprozessen mittels eines Sensorsystems (30) durch ein Erfassen der Lage des Objektes (200) und/oder der Objektaufnahme (300) gegenüber einem Bezugssystem geführt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Navigieren das Erfassen der Lage des Objektes (200) und/oder der Objektaufnahme (300) iterativ durchgeführt wird.
  3. Verfahren nach einem der Ansprüche 1 bis 2, dadurch gekennzeichnet, dass zum Erfassen der Lage des Objektes (200) und/oder der Objektaufnahme (300) verwendete Sensorkomponenten (30, 40, 50) in ihrer relativen Lage zueinander konstant gehalten werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass für das Lokalisieren und Anfahren eines Objektes (200) und/oder einer Objektaufnahme (300) eine Bildauswertung der von einer Kamera (45), insbesondere einer weitwinkligen Monokamera, aufgenommenen Szene vorgesehen wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass in mindestens einem Teilprozess eine oder mehrere Kameras (41) mit einer strukturierten Beleuchtung (43) vorgesehen werden, wobei ein 3-Abstandsbild des Objektes (200) und/oder der Objektaufnahme (300) erzeugt wird und durch Vergleich des 3D-Abstandbildes mit einem aus einem Trainingsvorgang hinterlegten Referenzmodell die Lage des Objektes (200) und/oder der Objektaufnahme (300) zum Bezugssystem bestimmt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass in mindestens einem Teilprozess eine oder mehrere Kameras (41) mit einer homogenen Beleuchtung (42) vorgesehen werden, wobei ein Stereobild mit Texturinformationen des Objektes (200) und/oder der Objektaufnahme (300) erzeugt wird und durch Vergleich mit aus einem Trainingsvorgang hinterlegten Ansichtsmodellen die Lage des Objektes (200) und/oder der Objektaufnahme (300) zu einem Bezugssystem bestimmt wird, wobei durch die Ansichtsmodelle das Objekt (200) und/oder die Objektaufnahme (300) mit den Texturinformationen aus verschiedenen Ansichten bereitgestellt werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass zum Erfassen der Lage des Objektes (200) im Greifer (10) eine Monokamera (51) mit einer zur Monokamera (51) kalibrierten strukturierten Beleuchtung (43, 53), insbesondere einem Strukturprojektor, vorgesehen wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass zum Erfassen der Lage des Objektes (200) im Greifer (10) eine taktile Tastmatrix (56) aus Sensorelementen in einer Grifffläche (57) des Greifers (10) vorgesehen wird, wobei durch Auswertung der durch das gegriffene Objekt (200) kontaktierten Sensorelementen die Lage des Objektes (200) zu einem Bezugssystem und/oder zu einer aus einem Trainingsvorgang hinterlegten Ideallage des Objektes (200) im Greifer (10) bestimmt wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass zum Erfassen der relativen Lage des Objektes (200) zur Objektaufnahme (300) beim Ablegen des Objektes (200) in die Objektaufnahme (300) ein ortsauflösender Kraftsensor (55) vorgesehen wird und zu einer Korrektur hinsichtlich einer ausgerichtete relativen Lage des Objektes (200) zur Objektaufnahme (300) genutzt wird, wobei insbesondere bei einem Ablegen durch Fügen die infolge von Toleranzen an der Fügestelle auftretenden räumlichen Fügekräfte ausgewertet werden.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass mindestens in einem Teilprozess zum Erfassen der Lage des Objektes (200) und/oder der Objektaufnahme (300) mehrere Einzelmessungen durchgeführt werden und dann mehrere Messwerte erhalten werden über die Lage des Objektes 200 und/oder der Objektaufnahme (300) und die Messwerte mittels eines Auswertealgorithmus miteinander verknüpft werden, wobei die Lage des Objektes (200) und/oder der Objektaufnahme (300) dann genauer als bei den Einzelmessungen bestimmt wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Messwerte zueinander auf unterschiedlichen Messinformationen basieren, indem von zueinander unterschiedlichen Texturinformationen des Objektes (200) und/oder der Objektaufnahme (300) erfasst werden und/oder unterschiedliche Messverfahren verwendet werden.
  12. Verfahren nach einem der Ansprüche 10 bis 11, dadurch gekennzeichnet, dass die Einzelmessungen zueinander zeitunterschiedlich und/oder bei geometrisch unterschiedlicher Lage des Objektes (200) und/oder der Objektaufnahme (300) zum Bezugssystem durchgeführt werden.
  13. Verfahren nach einem der Ansprüche 10 bis 11, dadurch gekennzeichnet, dass die Einzelmessungen zueinander zeitgleich und/oder bei einer gleichbleibenden geometrischen Lage des Objektes (200) und/oder der Objektaufnahme (300) zum Bezugssystem durchgeführt werden.
  14. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass für den Auswertealgorithmus ein stochastischer Algorithmus verwendet wird, insbesondere ein Kalmanfilter.
  15. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass im Auswertealgorithmus die Messwerte über die Lage des Objektes (200) und/oder der Objektaufnahme (300) aus den Einzelmessungen mit unterschiedlicher Gewichtung berücksichtigt werden.
  16. Anordnung für ein Handhabungsgerät (100), insbesondere für ein Verfahren nach einem der Ansprüche 1 bis 15, mit einem Sensorsystem (30) zum räumlichen Navigieren des Handhabungsgerätes (20) beim Greifen und Ablegen eines Objektes (200) in eine Objektaufnahme (300) mittels eines Greifers (10), wobei als Sensorsystem (30) zur Erfassung der Lage des Objektes (200) und/oder der Objektaufnahme (300) eine bildauswertende Einheit angeordnet ist, dadurch gekennzeichnet, dass die bildauswertende Einheit eine oder mehrere Kameras (41) mit einer strukturierten Beleuchtung (43), insbesondere einem Strukturprojektor, oder mit einer strukturierten und einer homogenen Beleuchtung (42, 43) um fasst, wobei als Auswertung bei einem mit einem Strukturmuster überlagerten Objekt (200) und/oder Objektaufnahme (300) ein rekonstruiertes 3D-Bild vorgesehen ist und bei einem homogen ausgeleuchteten Objekt (200) und/oder Objektaufnahme (300) extrahierte Texturinformationen aus Stereobildern vorgesehen sind.
  17. Anordnung nach Anspruch 15, dadurch gekennzeichnet, dass die Auswertung die Lage des Objektes (200) und/oder der Objektaufnahme (300) zu einem Bezugssystem aufweist.
  18. Anordnung nach einem der Ansprüche 15 bis 16, dadurch gekennzeichnet, dass für die Auswertung bei einem mit einem Strukturmuster überlagerten Objekt (200) und/oder Objektaufnahme (300) ein aus einem Trainingsvorgang hinterlegtes Referenzmodell vorgesehen ist.
  19. Anordnung nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, dass für die Auswertung bei einem homogen ausgeleuchteten Objekt (200) und/oder Objektaufnahme (300) aus einem Trainingsvorgang hinterlegte Ansichtsmodelle vorgesehen sind.
  20. Anordnung nach einem der Ansprüche 15 bis 18, dadurch gekennzeichnet, dass zum Erfassen der Lage des Objektes (200) im Greifer (10) eine Monokamera (51) mit einer zur Monokamera (51) kalibrierten strukturierten Beleuchtung (43, 53), insbesondere einem Strukturprojektor, vorgesehen ist.
  21. Anordnung nach einem der Ansprüche 15 bis 19, dadurch gekennzeichnet, dass das Sensorsystem (30) für einen Trainingsvorgang in einer Einlernphase zur Erfassung der Lage eines Objektes (200) und/oder einer Objektaufnahme (300) vorgesehen ist.
  22. Anordnung nach Anspruch 21, dadurch gekennzeichnet, dass der Trainingsvorgang Modellbilder des Objektes (200) und/oder der Objektaufnahme (300) aus verschiedenen Ansichten zu einem Bezugssystem und/oder die Erstellung eines Referenzmodelles umfasst.
  23. Anordnung nach einem der Ansprüche 15 bis 21, dadurch gekennzeichnet, dass zum Lokalisieren und Anfahren eines Objektes (200) und/oder Objektaufnahme (300) innerhalb einer Szene eine Monokamera (41), insbesondere eine weitwinklige Monokamera, vorgesehen ist.
  24. Anordnung nach einem der Ansprüche 15 bis 22, dadurch gekennzeichnet, dass zum Erfassen der Lage des Objektes (200) im Greifer (10) eine taktile Tastmatrix (56) vorgesehen ist.
  25. Anordnung nach Anspruch 23, dadurch gekennzeichnet, dass die taktile Tastmatrix (56) aus eine optischen, piezoelektrischen, magnetoelastischen, induktiven, kapazitiven oder eine mit resonanten Kraftsensoren aufgebauten Matrix besteht.
  26. Anordnung nach einem der Ansprüche 15 bis 23, dadurch gekennzeichnet, dass zum Erfassen der relativen Lage des Objektes (200) zur Objektaufnahme (300) beim Ablegen des Objektes (200) in die Objektaufnahme (300) ein ortsauflösender Kraftsensor (55) angeordnet ist und eine Auswertung des ortsauflösender Kraftsensor (55) einen Korrekturwert für eine ausgerichtete relative Lage des Objektes (200) zur Objektaufnahme (300) aufweist.
DE102008042261.4A 2008-09-22 2008-09-22 Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät Active DE102008042261B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008042261.4A DE102008042261B4 (de) 2008-09-22 2008-09-22 Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008042261.4A DE102008042261B4 (de) 2008-09-22 2008-09-22 Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät

Publications (2)

Publication Number Publication Date
DE102008042261A1 true DE102008042261A1 (de) 2010-04-01
DE102008042261B4 DE102008042261B4 (de) 2018-11-15

Family

ID=41719602

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008042261.4A Active DE102008042261B4 (de) 2008-09-22 2008-09-22 Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät

Country Status (1)

Country Link
DE (1) DE102008042261B4 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012125307A1 (en) * 2011-03-17 2012-09-20 Harris Corporation Robotic grasping device with multi-force sensing at base of fingers
US8534728B1 (en) 2012-11-19 2013-09-17 Harris Corporation Adaptive robotic gripper
US8534729B2 (en) 2011-08-04 2013-09-17 Harris Corporation High-force robotic gripper
DE102014005351A1 (de) * 2014-04-11 2015-10-15 Thyssenkrupp Ag Getriebeprüfvorrichtung
DE102016203701A1 (de) * 2016-03-07 2017-09-07 Kuka Roboter Gmbh Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen
DE102016206980A1 (de) * 2016-04-25 2017-10-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
DE102016216196A1 (de) 2016-08-29 2018-03-01 Robert Bosch Gmbh Sensoranlage mit einer optischen Sensoreinheit und eine Automatisierungsanlage
DE102019125117B4 (de) * 2018-09-18 2020-12-10 Kinova Inc. Sichtgeführter Roboterarm und Verfahren zum Betreiben desselben
DE102022203359A1 (de) 2021-11-10 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, Lasermaterialbearbeitungsanlage, Verfahren und Computerprogramm

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008002725A1 (de) 2008-06-27 2009-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE102008002730A1 (de) 2008-06-27 2009-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur 3D-Rekonstruktion

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3352173B2 (ja) * 1993-09-27 2002-12-03 マツダ株式会社 ロボットの制御装置
DE4405865C2 (de) * 1994-02-23 1998-03-19 Leonhard Werner Verfahren zur Erfassung von Bildinhalten eines zeilenorientierten Bildsensors und zugehörige Einrichtung für Handhabungssysteme
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
DE102005009606A1 (de) * 2005-02-28 2006-08-31 Isra Vision Systems Ag Sensoranordnung
US20070276539A1 (en) * 2006-05-25 2007-11-29 Babak Habibi System and method of robotically engaging an object
JP2008055540A (ja) * 2006-08-30 2008-03-13 Toyota Motor Corp 滑り検出装置、滑り検出方法および滑り検出プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008002725A1 (de) 2008-06-27 2009-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE102008002730A1 (de) 2008-06-27 2009-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur 3D-Rekonstruktion

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"4. Workshop für OTS-Systeme in der Robotik" (Veranstalter: Fraunhofer Institut für Produktionstechnik und Automatisierung, Referenten: Peter Maschotta (Fa. Vision&Control), Bruno Fellhauer (Fa. Schunk), Vortrag: "Baukasten für intelligente, sehende und fühlende Greifer im OTS-Einsatz", Stuttgart den 2. November 2005
"Schnelle 3-D-Objektlageerkennung für den Griff in die Kiste" (Veranstalter: Fraunhofer Institut für Produktionstechnik und Automatisierung, Dipl.-Math. Techn. Thomas Ledermann, Stuttgart den 25. April 2008

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012125307A1 (en) * 2011-03-17 2012-09-20 Harris Corporation Robotic grasping device with multi-force sensing at base of fingers
US8504205B2 (en) 2011-03-17 2013-08-06 Harris Corporation Robotic grasping device with multi-force sensing at base of fingers
CN103442859A (zh) * 2011-03-17 2013-12-11 哈里公司 在指根处具有多力感测的机器人抓持装置
CN103442859B (zh) * 2011-03-17 2015-08-19 哈里公司 在指根处具有多力感测的机器人抓持装置
US8534729B2 (en) 2011-08-04 2013-09-17 Harris Corporation High-force robotic gripper
US8534728B1 (en) 2012-11-19 2013-09-17 Harris Corporation Adaptive robotic gripper
DE102014005351A1 (de) * 2014-04-11 2015-10-15 Thyssenkrupp Ag Getriebeprüfvorrichtung
DE102016203701A1 (de) * 2016-03-07 2017-09-07 Kuka Roboter Gmbh Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen
DE102016206980A1 (de) * 2016-04-25 2017-10-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
DE102016206980B4 (de) 2016-04-25 2018-12-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
DE102016216196A1 (de) 2016-08-29 2018-03-01 Robert Bosch Gmbh Sensoranlage mit einer optischen Sensoreinheit und eine Automatisierungsanlage
EP3290861A1 (de) 2016-08-29 2018-03-07 Robert Bosch GmbH Sensoranlage mit einer optischen sensoreinheit und eine automatisierungsanlage
DE102019125117B4 (de) * 2018-09-18 2020-12-10 Kinova Inc. Sichtgeführter Roboterarm und Verfahren zum Betreiben desselben
DE102022203359A1 (de) 2021-11-10 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung, insbesondere für eine Lasermaterialbearbeitungsanlage, Lasermaterialbearbeitungsanlage, Verfahren und Computerprogramm

Also Published As

Publication number Publication date
DE102008042261B4 (de) 2018-11-15

Similar Documents

Publication Publication Date Title
DE102008042261B4 (de) Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102008042260B4 (de) Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
EP1503874B1 (de) Fertigungseinrichtung mit einer biegepresse, und verfahren zum betrieb der fertigungseinrichtung
DE112011101730B4 (de) System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102016212694A1 (de) Verfahren zur Orientierung eines Industrieroboters und Industrieroboter
WO2004026671A2 (de) Verfahren und vorrichtung zum lagegenauen greifen eines werkstücks aus einem werkstückträger
EP3587044B1 (de) Verfahren zum greifen von objekten in einem suchbereich und positioniersystem
DE102013017007B4 (de) Roboter mit einem Endmanipulatorarm mit Endeffektor sowie Verfahren zur Bestimmung eines Kraft- und Drehmomenteintrages auf einen Endeffektor eines Roboters
DE102016200386B4 (de) Verfahren zum Steuern eines Manipulatorsystems
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
DE102016206980B4 (de) Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
DE102016102579A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Vielzahl von Raumkoordinaten an einem Gegenstand
DE102014011852A1 (de) Verfahren zum Verfolgen wenigstens einer an einem Bauteil vorgesehenen Arbeitsposition für zumindest einen Roboter
EP2461433B1 (de) Verfahren und Vorrichtung zum Bestücken eines Steckergehäuses
DE10164944B4 (de) Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen
EP1143221A2 (de) Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks im 3D-Raum
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
EP1471401B1 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
DE102014106641A1 (de) Verfahren und Vorrichtung zum automatisierten dreidimensionalen optischen Vermessen von Objekten insbesondere mit schwer zugänglichen Bereichen
DE102020006160A1 (de) Verfahren zur Lageerkennung eines Objekts mittels eines Lageerfassungssystems, Verfahren zum Bearbeiten eines Objekts sowie Lageerfassungssystem
DE10118514B4 (de) Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D- Positionserkennung eines zu vermessenden Objektes mittels Digitalkameras
DE102007038785A1 (de) Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final