DE102013012068A1 - Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter - Google Patents

Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter Download PDF

Info

Publication number
DE102013012068A1
DE102013012068A1 DE201310012068 DE102013012068A DE102013012068A1 DE 102013012068 A1 DE102013012068 A1 DE 102013012068A1 DE 201310012068 DE201310012068 DE 201310012068 DE 102013012068 A DE102013012068 A DE 102013012068A DE 102013012068 A1 DE102013012068 A1 DE 102013012068A1
Authority
DE
Germany
Prior art keywords
hand
local maximum
positions
point
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201310012068
Other languages
English (en)
Other versions
DE102013012068B4 (de
Inventor
Hidetoshi Kumiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102013012068A1 publication Critical patent/DE102013012068A1/de
Application granted granted Critical
Publication of DE102013012068B4 publication Critical patent/DE102013012068B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39476Orient hand relative to object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Abstract

Eine Objektentnahmevorrichtung umfassend: einen Roboter, welcher eine Hand aufweist, die dazu geeignet ist, ein Objekt zu halten; eine 3D Messeinrichtung, welche Oberflächenpositionen mehrerer Objekte misst, die lose in einem 3D Raum gelagert sind, um einen aus mehreren 3D Punkten gebildeten 3D Punktesatz zu erfassen; eine Auswahleinheit für einen lokalen Maximalpunkt, die aus dem 3D Punktesatz einen 3D Punkt als einen lokalen Maximalpunkt, an dem ein Koordinatenwert bezüglich einer vorbestimmten Koordinatenachse maximal ist, auswählt; eine Verarbeitungseinheit, welche basierend auf dem von der Auswahleinheit für den lokalen Maximalpunkt ausgewählten lokalen Maximalpunkt eine Handposition und -stellung einschließlich einer Zielposition und Zielstellung der Hand bestimmt, an der es möglich ist, ein Objekt nahe des lokalen Maximalpunkts zu entnehmen; und eine Robotersteuerungseinheit, die den Roboter derart steuert, dass er die Hand in die von der Verarbeitungseinheit bestimmte Handposition und -stellung bewegt und das Objekt von der Handposition und -stellung aus entnimmt.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Objektentnahmevorrichtung und ein Objektentnahmeverfahren, die die Positionen von lose in einem 3D Raum gelagerten Objekten erkennen und die erkannten Objekte unter Verwendung eines Roboters entnehmen.
  • 2. Beschreibung des verwandten Standes der Technik
  • Als eine derartige Vorrichtung ist aus der Vergangenheit eine Vorrichtung bekannt, welche dazu eingerichtet ist, die Positionen von lose gelagerten Objekten durch Anwenden eines Musterabgleichs auf durch Fotografieren der Objekte mittels einer Kamera gewonnene 2D Bilder oder auf einen durch Messen mit einer 3D Messeinrichtung gewonnenen 3D Punktesatz zu erkennen.
  • Die ungeprüfte japanische Patentveröffentlichung Nr. 2004-295223A ( JP 2004-295223A ) beschreibt eine Vorrichtung, die ein 2D Modellmuster aus einem 2D Bild anfertigt, das durch Fotografieren des Objekts in einer relativen Bezugsstellung im Voraus gewonnen wird, das 2D Modellmuster mittels einer 2D geometrischen Umwandlung verarbeitet, um mehrere umgewandelte 2D Modellmuster anzufertigen, und die mehreren umgewandelten 2D Modellmuster verwendet, um einen 2D Musterabgleich auf ein 2D Bild eines Objekts anzuwenden.
  • Die japanische ungeprüfte Patentveröffentlichung Nr. 2009-128191 A ( JP2009-128191A ) beschreibt eine Vorrichtung, die die Oberflächen von Objekten in einem 3D Raum misst, um einen 3D Punktesatz zu erfassen, 3D Merkmale der Objekte auf der Grundlage dieses 3D Punktesatzes zu bestimmen und einen 3D Musterabgleich zwischen den 3D Merkmalen der Objekte und einem vorab angefertigten 3D Modellmuster durchzuführen.
  • Die Vorrichtungen, die in der JP 2004-295223A und der JP 2009-128191A beschrieben sind, erfordern jedoch im Voraus das Anfertigen eines 2D Modellmusters oder 3D Modellmusters für jede Objektart, sodass lästige Arbeit erforderlich ist. Insbesondere wenn die Anzahl an Objektarten groß ist, ist es notwendig, dieselbe Anzahl an Modellmustern anzufertigen, sodass ein enormer Arbeitsaufwand erforderlich ist. Ferner ist eine Anwendung in dem Fall von unregelmäßig geformten Objekten unmöglich, da es von Natur aus nicht möglich ist, Modellmuster zu erzeugen.
  • Abriss der Erfindung
  • Ein Aspekt der vorliegenden Erfindung ist eine Objektentnahmevorrichtung umfassend: einen Roboter, welcher eine Hand aufweist, die dazu geeignet ist, ein Objekt zu halten; eine 3D Messeinrichtung, welche Oberflächenpositionen mehrerer Objekte misst, die lose in einem 3D Raum gelagert sind, um einen aus mehreren 3D Punkten gebildeten 3D Punktesatz zu erfassen; eine Auswahleinheit für einen lokalen Maximalpunkt, die aus dem 3D Punktesatz einen 3D Punkt als einen lokalen Maximalpunkt, an dem ein Koordinatenwert bezüglich einer vorbestimmten Koordinatenachse maximal ist, auswählt; eine Verarbeitungseinheit, welche basierend auf dem von der Auswahleinheit für den lokalen Maximalpunkt ausgewählten lokalen Maximalpunkt eine Handposition und -stellung einschließlich einer Zielposition und Zielstellung der Hand bestimmt, an der es möglich ist, ein Objekt nahe des lokalen Maximalpunkts zu entnehmen; und eine Robotersteuerungseinheit, die den Roboter derart steuert, dass er die Hand in die von der Verarbeitungseinheit bestimmte Handposition und -stellung bewegt und das Objekt von der Handposition und -stellung aus entnimmt.
  • Ferner ist ein weiterer Aspekt der vorliegenden Erfindung ein Objektentnahmeverfahren zum Entnehmen von Objekten, die lose in einem 3D Raum gelagert sind unter Verwendung eines Roboters mit einer Hand, die dazu geeignet ist, ein Objekt zu halten, umfassend: Messen von Oberflächenpositionen mehrerer lose gelagerter Objekte mittels einer 3D Messeinrichtung, um einen aus mehreren 3D Punkten gebildeten 3D Punktesatz zu erfassen; Auswählen eines 3D Punkts aus dem 3D Punktesatz als einen Maximalpunkt, an dem ein Koordinatenwert bezüglich einer vorbestimmten Koordinatenachse maximal ist; Bestimmen einer Handposition und -stellung einschließlich einer Zielposition und Zielstellung der Hand basierend auf dem ausgewählten lokalen Maximalpunkt, an der es möglich ist, ein Objekt nahe des lokalen Maximalpunkts zu entnehmen; und Steuern des Roboters, sodass er die Hand in die vorbestimmte Handposition und -stellung bewegt und das Objekt von der Handposition und -stellung aus entnimmt.
  • Kurzbeschreibung der Zeichnungen
  • Die Aufgabe, Merkmale und Vorteile der vorliegenden Erfindung werden durch die folgende Erklärung der Ausführungsformen, die mit Bezug auf die beigefügten Zeichnungen angegeben ist, klarer werden, wobei
  • 1 eine Ansicht ist, die den schematischen Aufbau einer Objektentnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt,
  • 2 ein Flussdiagramm ist, welches ein Beispiel eines Verfahrensablaufs ist, der von der Robotersteuerungseinrichtung aus 1 durchgeführt wird, zeigt,
  • 3 eine Ansicht ist, die ein Beispiel eines von der 3D Messeinrichtung aus 1 erfassten 3D Punktesatzes zeigt,
  • 4 eine Ansicht ist, die ein Beispiel für aus dem 3D Punktesatz aus 3 ausgewählten lokalen Maximalpunkten zeigt,
  • 5 eine Ansicht ist, die ein Beispiel für Umgebungssätze für lokale Maximalpunkte, die entsprechend den lokalen Maximalpunkten aus 4 bestimmt sind, zeigt,
  • 6 eine Ansicht ist, die ein Beispiel für stellvertretende Positionen zeigt, die auf Positionen von zu den Umgebungssätzen für die lokalen Maximalpunkte gehörigen 3D Punkten aus 5 basieren,
  • 7 eine Ansicht ist, die ein Beispiel von Handpositionen und -stellungen entsprechend den stellvertretenden Positionen aus 6 zeigt,
  • 8 eine Ansicht ist, welche ein Beispiel einer Nummerierung von Handpositionen und -stellungen aus 7 zeigt,
  • 9 eine Ansicht ist, die ein Beispiel einer Nummerierung von Haltern von Händen zeigt, die Teil der Objektentnahmevorrichtung aus 1 sind,
  • 10 eine Ansicht ist, die ein Beispiel der Funktion einer Objektentnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt,
  • 11 eine Ansicht ist, die ein Beispiel der Funktion nach 10 zeigt,
  • 12 eine Ansicht ist, die ein Beispiel der Funktion nach 11 zeigt,
  • 13 eine Ansicht ist, die ein Beispiel der Funktion nach 12 zeigt,
  • 14 eine Ansicht ist, die ein Beispiel der Funktion nach 13 zeigt,
  • 15 ein Flussdiagramm ist, das ein Beispiel eines Verfahrensablaufs zum Erzeugen eines verbundenen Satzes zeigt,
  • 16 eine Ansicht ist, die bestimmte Beispiele eines verbundenen Satzes zeigt,
  • 17 ein Blockdiagramm ist, welches einen Aufbau innerhalb der Robotersteuerungseinrichtung aus 1 zeigt.
  • Detaillierte Beschreibung
  • 1 ist eine Ansicht, die den schematischen Aufbau einer Objektentnahmevorrichtung 10 gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. Die Objektentnahmevorrichtung 10 umfasst eine 3D Messeinrichtung 11, einen Roboter 12 und eine Robotersteuerungseinrichtung 13, die die 3D Messeinrichtung 11 und den Roboter 12 verbindet und den Roboter 12 steuert. Der Roboter 12 hat eine Hand 14, die an einem vorderen Ende eines Arms 12a befestigt ist.
  • Innerhalb eines Behältnisses 16 mit einer offenen Oberseite sind mehrere Objekte 20 lose gelagert. Die Objektentnahmevorrichtung 10 der vorliegenden Ausführungsform erkennt die Positionen der Objekte 20, die aus dem Zustand der losen Lagerung dieser mehreren Objekte 20 zu entnehmen sind, entnimmt und hält ein erkanntes Objekt 20 aus dem Inneren des Behältnisses 16 mit der Hand 14 und befördert es zu einer vorbestimmten Position außerhalb des Behältnisses 16 durch Betreiben des Roboters 12. Obwohl die mehreren Objekte 20 in 1 als jeweils dieselbe Form aufweisend dargestellt sind, können sie auch unregelmäßig geformte Objekte oder mehrere Objektarten umfassen. Im Folgenden wird ein von der Hand 14 gehaltenes Objekt 20 gelegentlich als ein „gehaltenes Objekt 21” bezeichnet, um es von den anderen Objekten in dem Behältnis 16 zu unterscheiden (siehe 11).
  • Die Hand 14 weist ein Paar Halter 14a auf, die mittels eines nicht gezeigten Hebemechanismus gehoben und gesenkt werden können. Die Halter 14a befinden sich zumeist in dem gehobenen Zustand, wie in 1 gezeigt. Sie werden aus diesem gehobenen Zustand gesenkt, um Objekte 20 aufzunehmen und dann wieder gehoben, sodass sie die gehaltenen Objekte 21 in vertikaler Richtung anheben. Daher werden die gehaltenen Objekte 21 aufwärts von den anderen Objekten 20 entnommen. Wenn der Roboter 12 betrieben wird, um die gehaltenen Objekte 21 zu befördern, kann eine Kollision der gehaltenen Objekte 21 oder der Hand 14 mit anderen Objekten 20 innerhalb des Behältnisses 16 vermieden werden.
  • Die 3D Messeinrichtung 11 ist über dem mittigen Teil des Behältnisses 16 angeordnet. Sie misst die Oberflächen exponierter Objekte 20 von den lose innerhalb des Behältnisses 16 gelagerten Objekten 20, sodass sie mehrere 3D Punkte mit Positionsinformationen (3D Informationen) erfasst. Der Messbereich der 3D Messeinrichtung 11 muss das Behältnis 16 umfassen. Wenn er jedoch zu groß ist, wird ein Abfall der Messauflösung bewirkt. Der Bereich ist daher vorzugsweise genau so weit ausgedehnt, dass er den von dem Behältnis 16 besetzten Bereich umfasst. Obwohl die 3D Messeinrichtung 11 an einen dafür vorgesehenen Rahmen 15 in dem dargestellten Beispiel fixiert ist, kann sie auch an dem vorderen Ende des Roboters 12 befestigt sein. Die 3D Messeinrichtung 11 und die Robotersteuerungseinrichtung 13 sind miteinander über ein Übertragungskabel oder andere Übertragungsmittel gekoppelt und können miteinander kommunizieren.
  • Als 3D Messeinrichtung 11 kann eines von diversen berührungsfreien Systemen verwendet werden. Beispielsweise seien hier genannt: ein Stereosystem, welches zwei Kameras verwendet, ein Laserspaltabtastsystem, ein Laserpunktabtastsystem, ein System, welches einen Projektor oder andere Einrichtungen zum Projizieren eines Lichtmusters auf ein Objekt verwendet, ein System, welches die Ausbreitungszeit von Licht von der Emission aus einem Laseremitter bis zur Reflexion an der Oberfläche eines Objekts und Eintreffen in einen Lichtempfänger verwendet, etc..
  • Die 3D Messeinrichtung 11 gibt die erfassten 3D Informationen in Form eines Abstandsbildes oder einer 3D Karte wieder. Ein „Abstandsbild” gibt 3D Informationen im Bildformat wieder. Es verwendet die Helligkeit oder Farbe der Pixel des Bildes, um die Höhe einer Position auf dem Bild oder eines Abstandes von der 3D Messeinrichtung 11 wiederzugeben. Andererseits gibt eine „3D Karte” 3D Informationen als einen Satz gemessener 3D Koordinatenwerte (X, Y, Z) wieder. In der vorliegenden Ausführungsform wird ein Pixel in einem Abstandsbild oder ein Punkt mit 3D Koordinatenwerten in einer 3D Karte als „3D Punkt” bezeichnet, während ein Satz mehrerer 3D Punkte als „3D Punktesatz” bezeichnet wird. Ein 3D Punktesatz ist der Satz aller 3D Punkte, die mit der 3D Messeinrichtung 11 gemessen werden und mittels der 3D Messeinrichtung 11 erfasst werden können.
  • Die Hand 14 kann ein Objekt 20 entnehmen und halten. Als der Handtyp, der dies ausführen kann, sei beispielsweise ein Saugstutzen, ein Aufnahmemagnet, eine Saugplatte, etc. genannt. Die Hand 14 wird ferner hinsichtlich ihrer Position und Stellung durch Betreiben des Roboters 12 gesteuert.
  • 2 ist ein Flussdiagramm, welches ein Beispiel eines Verfahrensablaufs (englisch: „processing”) zeigt, der von der Robotersteuerungseinrichtung 13 ausgeführt wird. Im Folgenden wird die Funktion der Objektentnahmevorrichtung 11 mit Bezug auf das Flussdiagramm aus 2 und die zugehörigen Zeichnungen erklärt.
  • Der Verfahrensablauf aus 2 wird beispielsweise durch Betätigen eines nicht gezeigten Betriebsschalters zum Eingeben einer Anweisung für den Beginn einer Entnahme eines Objekts 20 eingeleitet. Zuerst werden die Oberflächen der mehreren Objekte 20, die lose in dem 3D Raum gelagert (gespeichert) sind, mit der 3D Messeinrichtung 11 gemessen, um den 3D Punktesatz 30 zu erfassen/gewinnen (englisch: „acquire”) (Schritt S1). 3 ist eine Ansicht, die ein Beispiel des mit der 3D Messeinrichtung 11 erfassten 3D Punktesatzes 30 und die den 3D Punktesatz 30 bildenden Punkte 31 zeigt. In der Figur sind die 3D Punkte 31 als schwarze Punkte dargestellt, während der 3D Punktesatz 30 als eine durch eine unterbrochene Linie eingefasste Gesamtheit der schwarzen Punkte dargestellt ist.
  • Als nächstes werden ein oder mehrere lokale Maximalpunkte 32 aus dem 3D Punktesatz 30 ausgewählt (Schritt S2). 4 ist eine Ansicht, die ein Beispiel eines 3D Punktesatzes und aus dem 3D Punktesatz 30 ausgewählte lokale Maximalpunkte 32 zeigt. In der Figur sind die lokalen Maximalpunkte 32 als umkreiste schwarze Punkte dargestellt. Die lokalen Maximalpunkte 32 sind diejenigen Punkte der 3D Punkte 31, welche dem 3D Punktesatz 30 zugehören, an denen die Koordinatenwerte für eine vorbestimmte Koordinatenachse 40 lokale Maxima werden. In der vorliegenden Ausführungsform ist die Koordinatenachse 40, entsprechend der Richtung der Entnahme der Objekte 20, beispielsweise als die vertikale Aufwärtsausrichtung (Z-Achsen-Richtung) bestimmt, d. h. die Ausrichtung ist entgegen der Schwerkraft.
  • Daraufhin werden den einzelnen lokalen Maximalpunkten 32 zugehörige Umgebungssätze 33 für die lokalen Maximalpunkte bestimmt (Schritt S3). 5 ist eine Ansicht, die ein Beispiel von Umgebungssätzen 33 für die lokalen Maximalpunkte zeigt, die entsprechend der einzelnen lokalen Maximalpunkte 32 bestimmt sind. Die Umgebungssätze 33 für die lokalen Maximalpunkte sind durch unterbrochene Linien dargestellt. Die Umgebungssätze 33 für die lokalen Maximalpunkte sind Teilsätze (Untermengen) des 3D Punktesatzes 30 aus 3, die den einzelnen lokalen Maximalpunkten 32 zugehörige Sätze sind und die lokalen Maximalpunkte 32 umfassen.
  • Es gibt diverse Verfahren zum Bestimmen der Umgebungssätze 33 für die lokalen Maximalpunkte. Zunächst gibt es als erstes Beispiel das Verfahren des Bildens der jeweiligen Umgebungssätze 33 für die lokalen Maximalpunkte alleine aus den zugehörigen lokalen Maximalpunkten 32. Als zweites Beispiel gibt es das Verfahren des Bildens der einzelnen Umgebungssätze 33 für die lokalen Maximalpunkte aus allen 3D Punkten 31 innerhalb eines vorbestimmten Abstands von den entsprechenden lokalen Maximalpunkten 32. Als drittes Beispiel gibt es das Verfahren des Bildens der Umgebungssätze 33 für die lokalen Maximalpunkte durch verbundene Sätze, die die lokalen Maximalpunkte 32 umfassen.
  • Der hier genannte „verbundene Satz” ist, für den Fall, dass eine mathematische Definition dafür anzugeben ist, ein Satz aus 3D Punkten 31, wobei, wenn der Satz mehrere 3D Punkte 31 umfasst, innerhalb eines vorbestimmten Abstandes von jedem dem Satz zugehörigen 3D Punkt 31 ein anderer dem Satz zugehöriger, sich aber von dem 3D Punkt 31 unterscheidender 3D Punkt 31 existiert. Ferner bildet, wenn er nur einen 3D Punkt 31 umfasst (es keinen anderen 3D Punkt 31 innerhalb des vorbestimmten Abstandes gibt), dieser 3D Punkt 31 alleine den verbundenen Satz.
  • Ein verbundener Satz wird detaillierter erklärt. 16 ist eine Ansicht, die spezifische Beispiele eines verbundenen Satzes zeigt. In 16 bilden die 3D Punkte 311 bis 314 einen verbundenen Satz 321, die 3D Punkte 315 und 316 einen verbundenen Satz 322 und der 3D Punkt 317 einen verbundenen Satz 323. Das heißt, die 3D Punkte 311 und 312, 312 und 313, 313 und 314, und 315 und 316 sind jeweils innerhalb des vorbestimmten Abstandes und sind miteinander verbunden. Andererseits steht dem 3D Punkt 317 kein anderer 3D Punkt 31 innerhalb des vorbestimmten Abstands bereit, so dass der 3D Punkt 317 alleine den verbundenen Satz 323 bildet. Ein Beispiel des Verfahrensablaufs zum eigentlichen Erstellen verbundener Sätze wird später angegeben.
  • Als viertes Beispiel gibt es das Verfahren des Bildens des Umgebungssatzes 33 für die lokalen Maximalpunkte unter Verwendung der 3D Punkte 31 einschließlich eines lokalen Maximalpunkts 32, um eine Ebene auszubilden und die 3D Punkte 31 zu verwenden, die diese Ebene bilden. Insbesondere wird eine Ebene durch die lokalen Maximalpunkte 32 und die nahe dem lokalen Maximalpunkt 32 positionierten 3D Punkte 31 gebildet. In diesem Fall bilden nur die innerhalb eines vorbestimmten Abstandes von der Ebene positionierten 3D Punkte 31 aus den nahe dem lokalen Maximalpunkt 32 positionierten 3D Punkten den Umgebungssatz 33 für die lokalen Maximalpunkte.
  • Als fünftes Beispiel gibt es das Verfahren des Bildens des Umgebungssatzes 33 für die lokalen Maximalpunkte unter Verwendung eines verbundenen Satzes von 3D Punkten 31, die einen lokalen Maximalpunkt 32 umfassen, um eine glatte gekrümmte Oberfläche zu bilden, und unter Verwendung der 3D Punkte 31, die diese gekrümmte Oberfläche bilden. In diesem Fall, wenn beispielsweise für jeden zu einem verbundenen Satz gehörenden 3D Punkt 31 drei separate 3D Punkte 31, ausgewählt in der Reihenfolge des nächsten zu dem 3D Punkt 31, hinzugefügt werden und die vier 3D Punkte 31 verwendet werden, um eine gekrümmte Oberfläche mit einem Krümmungsradius mit einem vorbestimmten Wert zu bilden, werden diese vier 3D Punkte 31 dazu verwendet, den Umgebungssatz 33 für die lokalen Maximalpunkte zu bilden. 5 zeigt den Fall des Bildens des Umgebungssatzes 33 für die lokalen Maximalpunkte anhand des dritten Beispiels der obigen fünf Beispiele. Das heißt, darin ist der Fall eines Umgebungssatzes 33 für die lokalen Maximalpunkte gezeigt, der durch einen verbundenen Satz, der durch sukzessives Verbinden dieser 3D Punkte (311 bis 314 oder 315 und 316) gewonnen ist, wenn es mehrere 3D Punkte 31 gibt, die innerhalb eines vorbestimmten Abstands voneinander positioniert sind, und einen verbundenen Satz, der nur durch den 3D Punkt (317) gebildet ist, wenn es keinen anderen 3D Punkt gibt, der innerhalb eines vorbestimmten Abstands positioniert ist, gebildet ist.
  • Als nächstes werden stellvertretende Positionen 34, welche den jeweiligen Umgebungssätzen 33 für die lokalen Maximalpunkte entsprechen, berechnet (Schritt S4). 6 ist eine Ansicht, welche ein Beispiel stellvertretender Positionen 34 zeigt, die basierend auf den Positionen der 3D Punkte 31 berechnet sind, welche zu den Umgebungssätzen 33 für die lokalen Maximalpunkte gehören. In der Figur sind die stellvertretenden Positionen 34 durch die „X”-Markierungen dargestellt. In 6 sind die gemittelten Positionen (gemittelten Koordinaten) der mehreren den Umgebungssätzen 33 für die lokalen Maximalpunkte zugehörigen 3D Punkte 31 als stellvertretende Positionen 34 bestimmt. Das Verfahren des Bestimmens der stellvertretenden Positionen ist nicht hierauf beschränkt. Beispielsweise ist es auch möglich, die Positionen der den jeweiligen Umgebungssätzen 33 für die lokalen Maximalpunkte entsprechenden lokalen Maximalpunkte 32 als die jeweiligen Positionen 34 zu verwenden.
  • Als nächstes werden die Handpositionen und -stellungen 35, die den jeweiligen stellvertretenden Positionen 34 entsprechen, berechnet (Schritt S5). 7 ist eine Ansicht, die ein Beispiel der Handpositionen und -stellungen 35 zeigt, die den stellvertretenden Positionen 34 entsprechen. Die Handpositionen und -stellungen 35 sind durch die Doppelspitzenpfeile, die rechtwinklig abgewinkelt sind, dargestellt. Dies ist der Fall, weil die Positionen und Stellungen durch Koordinatensysteme ausgedrückt sind. In 7 könnte es so aussehen, als ob die Positionen und Stellungen solche in einem 2D Raum sind, da nur zwei Pfeile dargestellt sind.
  • Es gibt diverse Verfahren zum Bestimmen der Positionskomponenten und der Stellungskomponenten der Handpositionen und -stellungen 35. Für die Positionskomponenten gibt es beispielsweise das Verfahren des Verwendens der stellvertretenden Positionen 34 als die Positionskomponenten der Handpositionen und -stellungen 35. Als anderes Beispiel gibt es das Verfahren des Verwendens von Positionen, die um eine vorbestimmte Länge von den Positionen der stellvertretenden Positionen 34 entlang der Richtung einer vorbestimmten Koordinatenachse 40 bewegt sind als die Positionskomponenten der Handpositionen und -stellungen 35. 7 zeigt die Positionskomponenten aus dem letzten Beispiel. Für die Stellungskomponenten gibt es beispielsweise das Verfahren des Verwendens einer vorbestimmten Stellung als die Stellungskomponenten der Handpositionen und -stellungen 35 unbeachtet der stellvertretenden Positionen 34. Als anderes Beispiel gibt es, wenn die Positionen der stellvertretenden Positionen 34 nahe an den Wänden des Behältnisses 16 sind, das Verfahren eines Neigens der Hand in einer Richtung weg von den Wänden mit dem Zweck, Kollisionen zwischen den Wänden und der Hand zu vermeiden, als die Stellungskomponenten der Handpositionen und -tellungen 35. 7 zeigt die Stellungskomponenten aus dem vorangehenden Beispiel.
  • Als nächstes werden die jeweiligen Handpositionen und -stellungen 35 als P1, P2, ... Pn (Schritt S6) nummeriert, wobei „n” die Anzahl an Handpositionen und -stellungen 35 ist. 8 ist eine Ansicht, die die nummerierten Handpositionen und -stellungen 35 zeigt. Diese sind in absteigender Reihenfolge von Koordinatenwerten bezüglich einer vorbestimmten Koordinatenachse 40 nummeriert, d. h. ausgehend von denjenigen bei den höchsten Positionen. In 8 ist n = 3.
  • Als nächstes werden die Halter 14a der Hand 14 als H1, H2, ... Hm nummeriert (Schritt S7), wobei „m” die Anzahl der Halter ist. 9 zeigt die nummerierten Halter 14a. In 9 ist m = 2.
  • Als nächstes werden die variablen „j” und „k”, die als Werte natürliche Zahlen annehmen, initialisiert. Das heißt, 1 wird für „j” eingetragen (j ← 1) und 1 wird für „k” (k ← 1) eingetragen (Schritt S8). Die Variable „j” wird verwendet, um die Nummer des Halters 14a zu bestimmen, während die Variable „k” dafür verwendet wird, die Nummer der Handposition und -stellung 35 zu bestimmen. Im Folgenden wird ein Halter 14a, der den Variablen „j” entspricht, als „Hj” und eine Handposition und -stellung 35, die den Variablen „k” entspricht, als „Pk” dargestellt.
  • Als nächstes wird, wie in 10 gezeigt, ein Steuersignal zum Ansteuern des Halters Hj, um den Halter Hj zu senken, ausgegeben, wobei ein Steuersignal an den Antrieb zum Ansteuern des Roboters ausgegeben wird, um den Halter Hj in die Handposition und -stellung Pk durch Betreiben des Roboters 12 zu bewegen (Schritt S9). Für die Ausgangswerte (Initialwerte) der Variablen gilt j = 1 und k = 1, Hj = H1 und Pk = P1.
  • Als nächstes wird ein Steuersignal an den Halter Hj ausgegeben, um ein Objekt 20 hochzusaugen (englisch: „suck up”) oder aufzunehmen (englisch: „pick up”). Wie in 11 gezeigt, saugt die untere Endfläche des Halters Hj das Objekt 20 (das gehaltene Objekt 21) daher hoch oder nimmt dieses auf und hält es (Schritt S10). Wenn der Halter Hj beispielsweise einen Saugstutzen aufweist, wird eine Vakuumpumpe angesteuert und die Saugkraft wird verwendet, um das Objekt 21 hochzusaugen und zu halten. Wenn der Halter Hj ferner ein Aufnahmemagnet ist, wird Strom durch eine elektromagnetische Spule getrieben, um den Magneten zu erregen, und die magnetische Kraft wird verwendet, um das gehaltene Objekt 21 aufzunehmen und zu halten.
  • Als nächstes wird, wie in 12 gezeigt, bewirkt, dass der das gehaltene Objekt 20 haltende Halter Hj ansteigt (Schritt S11). Indem bewirkt wird, dass der Halter Hj ansteigt, wenn die Hand 14 durch Betreiben des Roboters 12 bewegt wird, ist es möglich, Kollisionen zwischen dem gehaltenen Objekt 21 und dem Halter Hj und einem anderen Objekt 20 zu vermeiden.
  • Als nächstes wird beurteilt, ob der Halter Hj das gehaltene Objekt 21 erfolgreich gehalten hat (Schritt S12). Wenn der Halter Hj beispielsweise einen Saugstutzen aufweist, ist es ausreichend, die Änderung der Durchflussrate oder des Luftdrucks zum Zeitpunkt des Saugens zu verwenden, um zu beurteilen, ob der Haltevorgang erfolgreich gewesen ist. Wenn der Halter Hj ferner ein Aufnahmemagnet ist, ist es ausreichend, anhand eines Umgebungssensors zu beurteilen, ob es das gehaltene Objekt 21 gibt, und das Vorliegen des gehaltenen Objekts 21 als Grundlage zu verwenden, um zu beurteilen, ob der Haltevorgang erfolgreich gewesen ist. Wenn der Haltevorgang erfolgreich gewesen ist, fährt die Routine mit Schritt S13 fort. Falls der Haltevorgang nicht erfolgreich gewesen ist, fährt die Routine mit Schritt S15 fort.
  • Im Schritt S13 wird beurteilt, ob j < m erfüllt ist. Diese Beurteilung ist eine Beurteilung, ob es Halter Hj unter den „m” (Anzahl an) Haltern 14a gibt, welche immer noch keine gehaltenen Objekte 21 halten (In 12, zwei). Wenn j < m erfüllt ist, hält der Halter Hj + 1 immer noch kein gehaltenes Objekt 21, so dass „j” um 1 erhöht wird, um j ← j + 1 zu erzielen (Schritt S14), und die Routine fährt mit Schritt S15 fort. Wenn j < m nicht erfüllt ist, halten alle Halter Hj gehaltene Objekte 21, so dass die Routine mit Schritt S17 fortfährt.
  • Im Schritt S15 wird beurteilt, ob k < n erfüllt ist. Diese Beurteilung ist eine Beurteilung, ob es Handpositionen und -stellungen 35 gibt, die die Halter Hj aus den „n” (Anzahl an) Handpositionen und -stellungen 35 immer noch nicht erreicht haben (12, drei). Wenn k < n erfüllt ist, hat der Halter Hj immer noch nicht die Handposition und -stellung Pk + 1 erreicht, so dass „k” um 1 erhöht wird, um k ← k + 1 zu erzielen (Schritt S16), und die Routine kehrt zu Schritt S9 zurück. Wie in 13 gezeigt, wird ferner erzielt, dass sich der nächste Halter Hj in die nächste Handposition und -stellung Pk bewegt, während er durch Betreiben des Roboters 12 gesenkt wird. 13 zeigt ein Beispiel, in dem Hj = H2 und Pk = P2 gilt. Als nächstes wird ein Steuersignal an diesen Halter Hj ausgegeben, um ein Objekt aufzunehmen, wie in 14 gezeigt, es wird das nächste gehaltene Objekt 21 gehalten (Schritt S10). Wenn k < n nicht erfüllt ist, haben die Halter Hj alle der „n” (Anzahl an) Handpositionen und -stellungen 35 erreicht, so dass die Routine mit Schritt S17 fortfährt.
  • Im Schritt S17 wird ein Steuersignal an den für den Roboter verwendeten Antrieb ausgegeben, das gehaltene Objekt 21 wird durch Betreiben des Roboters 12 zu einer vorbestimmten Position befördert und das gehaltene Objekt 21 wird von dem Halter Hj gelöst. Mit dem obigen wird ein Durchgang des Verfahrensablaufs (Abfertigungsdurchgang) beendet. Es wird darauf hingewiesen, dass, wenn trotz dem Vorliegen unerreichter Handpositionen und -stellungen 35 (k < n) alle Halter Hj gehaltene Objekte 21 halten (j > m), die gehaltenen Objekte 21 im Schritt S17 zu den vorbestimmten Positionen befördert werden und von den Haltern Hj gelöst werden und dann die Nummer „j” des Halters auf den Ursprungswert 1 gesetzt wird und der Verfahrensablauf (Abfertigung) nach Schritt S9 wiederholt wird.
  • In dem obigen Durchgang werden die Handpositionen und -stellungen 35 so nummeriert, dass die Koordinatenwerte bezüglich einer vorbestimmten Koordinatenachse 40 absteigend geordnet werden, um dabei das Risiko einer Kollision der Hand 14 mit dem Objekt 20 während einer Bewegung der Hand 14 zu verringern, um eine Bewegung bei schneller Geschwindigkeit zu vereinfachen, wenn die Hand 14 in der Reihenfolge der Nummerierung der Handpositionen und -stellungen 35 bewegt wird, wie in 8 gezeigt. Darüber hinaus ist es auch möglich, betreffend die Koordinatenwerte bezüglich einer vorbestimmten Koordinatenachse 40, die Durchschnittswerte der 3D Punkte 31, die in den jeweiligen Umgebungssätzen 33 für die lokalen Maximalpunkte umfasst sind, zu berechnen und die Handpositionen und -stellungen 35 in der Reihenfolge des größeren Unterschieds zwischen dem Durchschnittswert und dem der Handposition und -stellung 35 entsprechenden Durchschnittswert zu nummerieren. Es ist daher möglich, das Kollisionsrisiko mit einem nahegelegenen Objekt 20, unmittelbar bevor die Hand 14 eine Handposition und -stellung 35 erreicht, zu reduzieren.
  • Als drittes Beispiel des Verfahrens zum Bestimmen der Umgebungssätze 33 für die lokalen Maximalpunkte wird das Verfahren des Verwendens eines verbundenen Satzes mit einen lokalen Maximalpunkt 32 zum Konfigurieren des Umgebungssatzes 33 für die lokalen Maximalpunkte erklärt. Im Folgenden wird ein Beispiel für einen Verfahrensablauf zum Erstellen eines verbundenen Satzes, umfassend einen einzigen lokalen Maximalpunkt 32, anhand des Flussdiagramms aus 15 erklärt. Zunächst wird als Initialwert 1 für die Variable „i” eingegeben, die den Wert einer natürlichen Zahl annimmt (i ← 1), der Satz A an 3D Punkten wird auf A ← {lokaler Maximalpunkt 32} gesetzt und der Satz B an 3D Punkten wird auf B ← {lokaler Maximalpunkt 32} gesetzt (Schritt T1). Als nächstes wird der Satz aller 3D Punkte „c”, die sich innerhalb eines vorbestimmten Abstandes von dem 3D Punkt in dem Satz B befinden, wieder zu dem Satz B gemacht (Schritt T2). Bezogen auf den Initialwert werden alle 3D Punkte „c”, welche innerhalb eines vorbestimmten Abstands von dem lokalen Maximalpunkt 32 sind und sich von dem lokalen Maximalpunkt 32 unterscheiden, gesammelt. Als nächstes wird beurteilt, ob „i” kleiner ist als eine vorbestimmte Zahl (Schritt T3). Diese Beurteilung ist eine Beurteilung, ob die Zahl „i” der wiederholten Berechnungen eine vorbestimmte Zahl erreicht hat. Wenn i < vorbestimmte Zahl erfüllt ist, hat die Zahl der wiederholten Berechnungen noch nicht die vorbestimmte Zahl erreicht, so dass die Routine mit Schritt T4 fortfährt. Wenn i < vorbestimmte Zahl nicht erfüllt ist, hat die Zahl der wiederholten Berechnungen bereits die vorbestimmte Zahl erreicht, so dass die Routine mit Schritt T6 fortfährt.
  • Im Schritt T4 wird beurteilt, ob B ≠ Φ erfüllt ist. Diese Beurteilung ist eine Beurteilung, ob es einen 3D Punkt gibt, welcher dem Satz A neu hinzugefügt werden soll. Wenn B ≠ Φ erfüllt ist, sollte der Satz B dem Satz A hinzugefügt werden, es wird A ← F ∪ B gesetzt (Schritt T5) und die Routine kehrt zu Schritt T2 zurück. Wenn B ≠ Φ nicht erfüllt ist, gibt es keinen 3D Punkt, der dem Satz A neu hinzugefügt werden sollte, so dass die Routine mit Schritt T6 fort fährt. Bei Schritt T6 wird der Satz A als der verbundene Satz ausgegeben und der Ablauf für das Erstellen des verbundenen Satzes wird beendet. Die vorbestimmte Zahl, die für die Beurteilung, ob die Zahl „i” wiederholter Berechnungen verwendet wird, dient dem Abschneiden der wiederholten Berechnungen bei einer geeigneten Zahl. Wenn die vorbestimmte Zahl „i” klein eingestellt wird, kann nur ein kleiner verbundener Satz erstellt werden, aber ein Anstieg der Abfertigungsdauer kann vermieden werden. Umgekehrt steigt die Abfertigungsdauer an, wenn die vorbestimmte Zahl „i” groß eingestellt wird, aber ein großer verbundener Satz kann erstellt werden.
  • Gemäß der vorliegenden Ausführungsform können die folgenden Funktionen und Effekte geboten werden:
    • (1) Die vorliegende Ausführungsform umfasst ein Messen von Oberflächenpositionen von lose in einem 3D Raum gelagerten Objekten mittels einer 3D Messeinrichtung 11, um einen 3D Punktesatz 30, gebildet aus mehreren 3D Punkten 31, zu erfassen (Schritt S1), Auswählen mindestens eines 3D Punkts 31 aus dem 3D Punktesatz 30, bei dem ein Koordinatenwert bezüglich einer vorbestimmten Koordinatenachse 40 maximal ist, als einen lokalen Maximalpunkt 32 (Schritt S2), Bestimmen einer Handposition und -stellung 35 umfassend eine Zielposition und Zielstellung einer Hand 14 (Halter 14a), was ein Entnehmen eines Objekts 20 nahe des lokalen Maximalpunkts 32 basierend auf dem ausgewählten lokalen Maximalpunkt 32 ermöglicht (Schritt S3 bis Schritt S5), und Steuern des Roboters, so dass er die Hand 14 zu der bestimmten Handposition und -stellung 35 bewegt und das Objekt 21 von der Handposition und -stellung 35 aus entnimmt (Schritt S9 bis Schritt S11).
  • Aus diesem Grund ist es nicht nötig, ein Modellmuster des Objekts 20 anzufertigen. Selbst mit einer großen Anzahl an Objektarten oder unregelmäßig geformten Objekten 20 ist es möglich, ihre Positionen leicht zu erkennen und die Objekte 20 zu halten. Ferner ist es selbst mit einer hinzugefügten neuen Objektart 20 möglich, ihre Positionen ohne Hinzufügen von Modellmustern zu erkennen und es ist möglich, ein Misslingen einer Erkennung oder eine Fehlerkennung der Positionen und Stellungen der Objekte 20 oder ein Misslingen einer Entnahme oder Kollision von Objekten 20 und andere Probleme zu vermeiden. Als Ergebnis ist es möglich, die Hand 14 zu leicht zugänglichen Objekten 20 an der Oberseite mit hoher Geschwindigkeit zu bewegen und die Objekte 20 effektiv zu entnehmen.
  • Im Gegensatz hierzu ist es beispielsweise mit dem Verfahren, bei dem ein 2D Modellmuster eines Objekts 20 verwendet wird und ein Musterabgleich zur Erkennung der Position des Objekts verwendet wird (Verfahren gemäß eines ersten Vergleichsbeispiels) nötig, ein 2D Modellmuster anzufertigen, und somit ist lästige Arbeit erforderlich. Insbesondere ist es, wenn es eine große Anzahl an Objektarten gibt, notwendig, dieselbe Anzahl an Modellmustern anzufertigen, und daher ist ein enormer Arbeitsaufwand erforderlich. Darüber hinaus gibt es das folgende Problem in dem Verfahren nach dem ersten Vergleichsbeispiel, im Vergleich mit der vorliegenden Ausführungsform. Objekte, die lose gelagert sind, nehmen diverse Stellungen an. Wenn ein 2D Musterabgleich entsprechend den verschiedenen Stellungen durchgeführt wird, ist es beispielsweise nötig, umgewandelte 2D Modellmuster zu verwenden, die durch Anwendung einer 2D geometrischen Umwandlung erhalten werden. Dieses Verfahren kann jedoch nur für flache Objekte verwendet werden. Wenn versucht wird, einen 2D Musterabgleich auf ein gewöhnliches 3D Objekt anzuwenden, wird es in Anbetracht der vielfältigen verschiedenen Arten es zu betrachten, die nicht durch geometrische Umwandlung ausgeglichen werden können, notwendig, 2D Modellmuster aus diversen Richtungen, wie der Vorderseite, der Rückseite, den Seiten und einer Schräge/Diagonale, selbst für nur eine einzige Objektart anzufertigen. Darüber hinaus wird es notwendig, eine enorme Anzahl an 2D Modellmuster anzufertigen, die aus einer Multiplikation der Anzahl an Objektarten resultieren, und ein immenser Arbeitsaufwand ist notwendig, wenn erwägt wird, wie mit einer großen Anzahl an Objektarten umgegangen werden kann. Ferner können 2D Modellmuster in dem Fall von unregelmäßig geformten Objekten nicht angefertigt werden, so dass ihre Positionen nicht erkannt werden können. Lose gelagerte Objekte leiden an schlechter Beleuchtung, Schatten von anderen Objekten, unvorhergesehenen Schiefstellungen der Objekte und anderen schlechten Fotografiebedingungen. Daher besteht das Risiko eines Misslingens des Erkennens oder einer Fehlerkennung der Positionen und Stellungen der Objekte, ein Misslingen, die Positionen von Schlüsselobjekten an der Oberfläche zu erkennen, und eine unvollständige Erkennung der Positionen von Objekten am Boden. Wenn die Handposition und -stellung des Roboters gesteuert wird, während auf eine fehlerkannte Position und -stellung eines Objekts oder der Position eines Objekts am Boden gezielt wird, wird es misslingen, das Objekt zu entnehmen, und die Arbeitseffektivität der Vorrichtung wird sinken. Und nicht nur das, die Hand und das Objekt neigen dazu, zu kollidieren und sich zu beschädigen. Wenn versucht wird, einen Schaden zu vermeiden, ist es notwendig, die Geschwindigkeit der Bewegung des Roboters zu verringern, und daher lässt die Arbeitseffektivität nach.
  • Ferner muss zum Beispiel mit dem Verfahren des Verwendens eines 3D Modellmusters eines Objekts und ebenfalls unter Verwendung eines 3D Musterabgleichs, um die Position des Objekts zu erkennen (Verfahren gemäß einem zweiten Vergleichsbeispiel), ein 3D Modellmuster angefertigt werden und lästige Arbeit ist erforderlich. Insbesondere wenn eine große Anzahl an Objektarten vorliegt, ist es notwendig, dieselbe Anzahl an Modellmustern anzufertigen, und ein enormer Arbeitsaufwand ist erforderlich. Ferner hat das Verfahren gemäß dem zweiten Vergleichsbeispiel das folgende Problem, im Vergleich mit dem vorliegenden Ausführungsbeispiel. Mit unregelmäßig geformten Objekten können 3D Modellmuster nicht angefertigt werden, so dass die Positionen nicht erkannt werden können. Lose gelagerte Objekte ermöglichen es nicht, 3D Punkte auf den nicht der 3D Messeinrichtung zugewandten Seiten zu erfassen. Darüber hinaus stellen sie sich stark schräg oder werden durch naheliegende Objekte blockiert, was schlechte Fotografiebedingungen zur Folge hat. Aus diesem Grund ist es schwierig, einen 3D Punktesatz von ausreichender Quantität und Qualität zu erfassen, um ein Bestimmen der 3D Stellung eines Objekts durch einen 3D Musterabgleich zu ermöglichen. Es besteht daher das Risiko eines Misslingens einer Erkennung oder einer Fehlerkennung der Positionen und Stellungen der Objekte, ein Misslingen, die Positionen von Schlüsselobjekten an der Oberseite zu erkennen, und eine unvollständige Erkennung der Positionen der Objekte am Boden. Wenn die Handposition und -stellung des Roboters gesteuert wird, während auf eine fehlerkannte Position und Stellung eines Objekts oder der Position eines Objekts am Boden gezielt wird, wird es misslingen, das Objekt zu entnehmen, und die Arbeitseffektivität der Vorrichtung wird sinken. Und nicht nur das, die Hand und das Objekt neigen dazu, zu kollidieren und sich zu beschädigen. Wenn versucht wird, einen Schaden zu vermeiden, ist es erforderlich, die Geschwindigkeit des Roboters zu verringern, und daher verschlechtert sich die Arbeitseffektivität.
    • (2) Beim Bestimmen der Handposition und -stellung 35 umfasst die vorliegende Ausführungsform Bestimmen des Umgebungssatzes 33 für die lokalen Maximalpunkte, welcher eine Untermenge des 3D Punktesatzes 30 ist und einen Satz an 3D Punkten 31 einschließlich des ausgewählten lokalen Maximalpunkts 32 umfasst, Bestimmen der stellvertretenden Positionen 34, die die Umgebungssätze 33 für die lokalen Maximalpunkte repräsentieren, basierend auf den Positionen der 3D Punkte 31, die in dem Umgebungssatz 33 für die lokalen Maximalpunkte umfasst sind, als die Basis dafür, und Bestimmen der Handpositionen und -stellungen 35 entsprechend den stellvertretenden Positionen 34. Es ist daher möglich, den lokalen Maximalpunkt 32 zu verwenden, um die Handposition und -stellung 35 mittels verschiedener Verfahren einzustellen.
    • (3) Die vorliegende Ausführungsform umfasst ein Bereitstellen mehrerer Halter 14a an der Hand 14, Beurteilen, ob ein leerer Halter 14a unter den mehreren Haltern 14a vorliegt, welcher kein Objekt 20 hält (Schritt S13) und, wenn beurteilt wird, dass ein leerer Halter 14a vorliegt, sukzessive Bewegen des leeren Halters 14a zu einer noch nicht erreichten Handposition und -stellung, die der Halter 14a unter den mehreren Handpositionen und -stellungen 35 noch nicht erreicht hat, und Entnehmen des Objekts 21 von der noch nicht erreichten Handposition und -stellung aus. Es ist daher möglich, mehrere Halter 14a effizient zu verwenden, und es ist möglich, die Arbeit des Entnehmens von Objekten 20 effektiv auszuführen.
    • (4) Wenn das Objekt 20 Endabschnitte aufweist, welche einfach lokale Maximalpunkte bilden, und die Oberflächen oder Seiten, die mit den Endabschnitten verbunden sind, leichter zu halten sind als die Endabschnitte selbst, ist es möglich, Positionen der verbundenen Sätze zu verwenden, d. h. die Umgebungssätze 33 für die lokalen Maximalpunkte anstatt der Positionen der lokalen Maximalpunkte 32, um die leichter haltbaren Oberflächen oder Seiten zu halten.
  • Solange Oberflächenpositionen mehrerer lose gelagerter Objekte 20 mittels einer 3D Messeinrichtung 11 gemessen werden, um einen 3D Punktesatz 30 zu erfassen, der mehrere 3D Punkte 31 umfasst, Auswählen zumindest eines 3D Punkts 31 aus dem 3D Punktesatz 30, an dem ein Koordinatenwert bezüglich einer vorbestimmten Koordinatenachse 40 maximal ist, als einen lokalen Maximalpunkt 32, Bestimmen einer Handposition und -stellung 35 einschließlich einer Zielposition und Zielstellung der Hand 14 (Halter 14a), was ermöglicht, dass ein Objekt 20 nahe des lokalen Maximalpunkts 32 basierend auf dem ausgewählten lokalen Maximalpunkt 32 entnommen wird, und Ansteuern des Roboters 12, sodass er eine Hand 14 zu der bestimmten Handposition und -stellung 35 bewegt und das Objekt 20 (gehaltenes Objekt 21) von der Handposition und -stellung 35 aus entnimmt, kann das Objektentnahmeverfahren beliebig konfiguriert werden.
  • In der oberen Ausführungsform können andere Mittel als saugende oder magnetische Mittel verwendet werden, um ein Objekt 20 zu entnehmen und zu halten, obgleich die Hand 14 dazu verwendet wird, ein Objekt hochzusaugen oder aufzunehmen und zu halten. Daher ist die Art der Hand 14 nicht auf die oben Erklärte beschränkt. Drei oder mehrere Halter 14a können an der Hand 14 vorgesehen sein oder es kann lediglich einer vorgesehen sein. 17 ist ein Blockdiagramm, welches einen Aufbau innerhalb der Robotersteuerungseinrichtung 13 aus 1 zeigt. Die Robotersteuerungseinrichtung 13 umfasst eine Auswahleinheit 13a für einen lokalen Maximalpunkt, eine Verarbeitungseinheit 13b und eine Robotersteuerungseinheit 13c. Die Verarbeitungseinheit 13b umfasst eine erste Verarbeitungseinheit 131, eine zweite Verarbeitungseinheit 132 und eine dritte Verarbeitungseinheit 133. Der Aufbau der oben genannten Objektentnahmevorrichtung 10 (1) ist nur ein Beispiel. Die Auswahleinheit 13a für einen lokalen Maximalpunkt (Schritt S2), Verarbeitungseinheit 13b, d. h. die erste Verarbeitungseinheit 131 (Schritt S3), zweite Verarbeitungseinheit 132 (Schritt S4) und dritte Verarbeitungseinheit 133 (Schritt S5), und die Robotersteuerungseinrichtung 13 als Robotersteuerungseinheit 13c (Schritt S9 bis Schritt S11) sind in ihrem Aufbau nicht auf die oben Erklärten beschränkt.
  • Die obigen Ausführungsformen können beliebig mit einer oder mehreren der Modifikationen kombiniert werden.
  • Gemäß der vorliegenden Erfindung werden die Positionen lokaler Maximalpunkte des 3D Punktesatzes dazu verwendet, Objekte nahe des lokalen Maximalpunkts mittels der Roboterhand zu halten, wobei die Positionen der lose in einem 3D Raum gelagerten Objekte erkannt werden, anstatt dass eine Erkennung von Positionen und Stellungen mittels Musterabgleich verwendet wird. Aus diesem Grund gibt es kein Bedürfnis, Modellmuster von Objekten anzufertigen. Selbst bei einer großen Anzahl an Objektarten oder bei unregelmäßig geformten Objekten ist es möglich, ihre Positionen zu erkennen und die Objekte zu halten.
  • Während die vorliegende Erfindung bezugnehmend auf ihre bevorzugten Ausführungsformen beschrieben wurde, würde ein Fachmann verstehen, dass diverse Korrekturen und Modifikationen darauf angewendet werden können, ohne sich vom Umfang der Offenbarung der im Folgenden erklärten Ansprüche zu entfernen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2004-295223 A [0003, 0005]
    • JP 2009-128191 A [0004, 0005]

Claims (7)

  1. Objektentnahmevorrichtung umfassend: einen Roboter (12), welcher eine Hand (14) aufweist, die dazu geeignet ist, ein Objekt zu halten; eine 3D Messeinrichtung (11), welche Oberflächenpositionen mehrerer Objekte (20) misst, die lose in einem 3D Raum gelagert sind, um einen aus mehreren 3D Punkten (31) gebildeten 3D Punktesatz (30) zu erfassen; eine Auswahleinheit (13a) für einen lokalen Maximalpunkt, die aus dem 3D Punktesatz einen 3D Punkt (31) als einen lokalen Maximalpunkt (32), an dem ein Koordinatenwert bezüglich einer vorbestimmten Koordinatenachse (40) maximal ist, auswählt; eine Verarbeitungseinheit (13b), welche basierend auf dem von der Auswahleinheit für den lokalen Maximalpunkt ausgewählten lokalen Maximalpunkt eine Handposition und -stellung (35) einschließlich einer Zielposition und Zielstellung der Hand bestimmt, an der es möglich ist, ein Objekt nahe des lokalen Maximalpunkts zu entnehmen; und eine Robotersteuerungseinheit (13c), die den Roboter derart steuert, dass er die Hand in die von der Verarbeitungseinheit bestimmte Handposition und -stellung bewegt und das Objekt von der Handposition und -stellung aus entnimmt.
  2. Objektentnahmevorrichtung nach Anspruch 1, wobei die Verarbeitungseinheit umfasst: eine erste Verarbeitungseinheit (131), die einen Umgebungssatz (33) für den lokalen Maximalpunkt bestimmt, welcher eine Untermenge des 3D Punktesatzes ist, wobei der Umgebungssatz für den lokalen Maximalpunkt einen Satz 3D Punkte einschließlich des von der Auswahleinheit für den lokalen Maximalpunkt ausgewählten lokalen Maximalpunkts umfasst; eine zweite Verarbeitungseinheit (132), die eine stellvertretende Position (34) bestimmt, welche den Umgebungssatz für den lokalen Maximalpunkt stellvertritt, basierend auf Positionen der in dem Umgebungssatz (33) für den lokalen Maximalpunkt enthaltenen 3D Punkte, die durch die erste Verarbeitungseinheit bestimmt sind; und eine dritte Verarbeitungseinheit (133), welche die Handposition und -stellung bestimmt, die der von der zweiten Verarbeitungseinheit bestimmten stellvertretenden Position entspricht.
  3. Objektentnahmevorrichtung nach Anspruch 1 oder 2, wobei die Hand mehrere Halter (14a) aufweist, die dazu geeignet sind, jeweils Objekte zu halten, die Verarbeitungseinheit mehrere der Handpositionen und -stellungen bestimmt, die Robotersteuerungseinheit beurteilt, ob ein leerer Halter (14a) unter den mehreren Haltern existiert, welcher kein Objekt hält, und, falls beurteilt ist, dass ein leerer Halter existiert, den Roboter derart ansteuert, dass er den leeren Halter sukzessive in eine noch nicht erreichte Handposition und -stellung bewegt, die der Halter von den mehreren Handpositionen und -stellungen noch nicht erreicht hat, und das Objekt von der noch nicht erreichten Handposition und -stellung aus entnimmt.
  4. Objektentnahmevorrichtung nach einem der Anspruche 1 bis 3, wobei die Robotersteuerungseinheit den Roboter derart ansteuert, dass er das Objekt mittels der Hand entnimmt und das entnommene Objekt anhand des Roboters befördert.
  5. Objektentnahmevorrichtung nach Anspruch 2, wobei der Umgebungssatz für den lokalen Maximalpunkt einen verbundenen Satz umfasst, der durch sukzessives Verbinden mehrerer der in einem vorbestimmten Abstand voneinander positionierten 3D Punkte gewonnen ist.
  6. Objektentnahmevorrichtung nach einem der Ansprüche 1 bis 5, wobei die Hand entweder einen Saugstutzen, einen Aufnahmemagneten oder eine Saugplatte aufweist.
  7. Objektentnahmeverfahren zum Entnehmen von Objekten (20), die lose in einem 3D Raum gelagert sind, unter Verwendung eines Roboters (12) mit einer Hand (14), die dazu geeignet ist, ein Objekt zu halten, umfassend: Messen von Oberflächenpositionen mehrerer lose gelagerter Objekte mittels einer 3D Messeinrichtung (11), um einen aus mehreren 3D Punkten (31) gebildeten 3D Punktesatz (30) zu erfassen; Auswählen eines 3D Punkts (31) aus dem 3D Punktesatz als einen Maximalpunkt (32), an dem ein Koordinatenwert bezüglich einer vorbestimmten Koordinatenachse (40) maximal ist; Bestimmen einer Handposition und -stellung (35) einschließlich einer Zielposition und Zielstellung der Hand basierend auf dem ausgewählten lokalen Maximalpunkt, an der es möglich ist, ein Objekt nahe des lokalen Maximalpunkts zu entnehmen; und Steuern des Roboters, sodass er die Hand in die vorbestimmte Handposition und -stellung bewegt und das Objekt von der Handposition und -stellung aus entnimmt.
DE102013012068.3A 2012-07-26 2013-07-19 Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter Active DE102013012068B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012165553A JP5642738B2 (ja) 2012-07-26 2012-07-26 バラ積みされた物品をロボットで取出す装置及び方法
JP2012-165553 2012-07-26

Publications (2)

Publication Number Publication Date
DE102013012068A1 true DE102013012068A1 (de) 2014-01-30
DE102013012068B4 DE102013012068B4 (de) 2015-11-12

Family

ID=49912311

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013012068.3A Active DE102013012068B4 (de) 2012-07-26 2013-07-19 Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter

Country Status (4)

Country Link
US (1) US9079310B2 (de)
JP (1) JP5642738B2 (de)
CN (1) CN103568014B (de)
DE (1) DE102013012068B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9569568B2 (en) 2014-03-10 2017-02-14 Fanuc Corporation Robot simulation system which simulates takeout process of workpiece
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
FR3020303B1 (fr) * 2014-04-25 2016-07-15 Sileane Procede et installation de prehension automatique d'un objet.
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
CN104647373B (zh) * 2014-12-19 2016-03-02 广州达意隆包装机械股份有限公司 码垛机器人的搬运系统及码垛机器人的搬运方法
JP6088563B2 (ja) * 2015-02-10 2017-03-01 ファナック株式会社 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法
EP3261809B1 (de) * 2015-02-25 2022-09-21 Dematic Corp. System und verfahren zur automatisierten bestellausführung
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
CN105128009A (zh) * 2015-08-10 2015-12-09 深圳百思拓威机器人技术有限公司 具有精确感测物体形状位姿的仿生机器人及其感测方法
CN105665304A (zh) * 2016-02-01 2016-06-15 先驱智能机械(深圳)有限公司 物体的抓取与分拣系统及分拣盘
CN105499155A (zh) * 2016-02-01 2016-04-20 先驱智能机械(深圳)有限公司 物体的抓取与分拣方法及分拣盘
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
CN106269548A (zh) * 2016-09-27 2017-01-04 深圳市创科智能技术有限公司 一种物体自动分拣方法及其装置
CN107009358B (zh) * 2017-04-13 2020-06-02 武汉库柏特科技有限公司 一种基于单相机的机器人无序抓取装置及方法
JP6860432B2 (ja) * 2017-06-09 2021-04-14 川崎重工業株式会社 ワークの認識装置及びワークを認識する方法
JP6695843B2 (ja) 2017-09-25 2020-05-20 ファナック株式会社 装置、及びロボットシステム
JP6806045B2 (ja) * 2017-12-11 2021-01-06 株式会社ダイフク 物品搬送設備
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP6725587B2 (ja) 2018-05-18 2020-07-22 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
US11926057B2 (en) 2018-06-14 2024-03-12 Yamaha Hatsudoki Kabushiki Kaisha Robot system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295223A (ja) 2003-03-25 2004-10-21 Fanuc Ltd 画像処理装置及びロボットシステム
JP2009128191A (ja) 2007-11-22 2009-06-11 Ihi Corp 物体認識装置およびロボット装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4305130A (en) * 1979-05-29 1981-12-08 University Of Rhode Island Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces
US4402053A (en) * 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP2001300878A (ja) * 2000-04-19 2001-10-30 Daihatsu Motor Co Ltd パレット内バラ積みワークの取出方法
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US6898484B2 (en) * 2002-05-01 2005-05-24 Dorothy Lemelson Robotic manufacturing and assembly with relative radio positioning using radio based location determination
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
SE524818C2 (sv) * 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
JP3834307B2 (ja) * 2003-09-29 2006-10-18 ファナック株式会社 ロボットシステム
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
US20070238981A1 (en) * 2006-03-13 2007-10-11 Bracco Imaging Spa Methods and apparatuses for recording and reviewing surgical navigation processes
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP4655074B2 (ja) 2007-07-27 2011-03-23 トヨタ自動車株式会社 ワーク搬送装置およびワーク設置方法
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
CN101396829A (zh) 2007-09-29 2009-04-01 株式会社Ihi 机器人装置的控制方法以及机器人装置
EP2075096A1 (de) * 2007-12-27 2009-07-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
US8265376B2 (en) * 2008-07-21 2012-09-11 Cognitens Ltd. Method and system for providing a digital model of an object
JP5201411B2 (ja) * 2008-11-21 2013-06-05 株式会社Ihi バラ積みピッキング装置とその制御方法
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
EP2255930A1 (de) * 2009-05-27 2010-12-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
US8472698B2 (en) * 2009-11-24 2013-06-25 Mitsubishi Electric Research Laboratories, Inc. System and method for determining poses of objects
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP5382621B2 (ja) * 2010-06-03 2014-01-08 株式会社安川電機 移載装置
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5630208B2 (ja) * 2010-10-25 2014-11-26 株式会社安川電機 形状計測装置、ロボットシステムおよび形状計測方法
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2012135820A (ja) * 2010-12-24 2012-07-19 Ihi Corp 自動ピッキング装置及び自動ピッキング方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295223A (ja) 2003-03-25 2004-10-21 Fanuc Ltd 画像処理装置及びロボットシステム
JP2009128191A (ja) 2007-11-22 2009-06-11 Ihi Corp 物体認識装置およびロボット装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9569568B2 (en) 2014-03-10 2017-02-14 Fanuc Corporation Robot simulation system which simulates takeout process of workpiece
DE102015002658B4 (de) 2014-03-10 2018-09-20 Fanuc Corporation Robotersimulationssystem, das einen Entnahmevorgang eines Werkstücks simuliert
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
DE102018111370B4 (de) * 2017-05-19 2019-11-28 Fanuc Corporation Werkstückaufnahmesystem

Also Published As

Publication number Publication date
US20140031985A1 (en) 2014-01-30
CN103568014B (zh) 2015-08-12
US9079310B2 (en) 2015-07-14
JP2014024142A (ja) 2014-02-06
CN103568014A (zh) 2014-02-12
JP5642738B2 (ja) 2014-12-17
DE102013012068B4 (de) 2015-11-12

Similar Documents

Publication Publication Date Title
DE102013012068B4 (de) Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter
DE102014016072B4 (de) Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
DE102013109220B4 (de) Robotervorrichtung und Verfahren zum Herausnehmen von Bulk-Ware aus einem Lager
DE102014016069B4 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
DE102014016033B4 (de) Vorrichtung und Verfahren zum Aufnehmen von regellos verteilten Gegenständen mit einem Roboter
DE112019000125B4 (de) Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
DE102013012224B4 (de) Vorrichtung zum Entnehmen von lose gespeicherten Gegenständen durch einen Roboter
DE102012021375B4 (de) Vorrichtung und Verfahren zum Erkennen einer dreidimensionalen Position und Orientierung eines Artikels
DE102013018222A1 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102014016032B4 (de) Vorrichtung und Verfahren zum Aufnehmen von wahllos gehäuften Gegenständen mit einem Roboter
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102014102943A1 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
EP2930264A1 (de) Verfahren zum Erfassen eines Wäschestücks
EP2767925A2 (de) Verfahren zur Erkennung von Objekten in einem Lager und/oder zur räumlichen Orientierung in einem Lager
DE19616204A1 (de) Aufhebevorrichtung
DE10164278A1 (de) Reinigungsroboter, Reinigungsrobotersystem und Verfahren zu deren Steuerung
EP2834789A2 (de) Verfahren und vorrichtung zur optischen bestimmung einer position und/oder orientierung eines objekts im raum
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
DE112017008101T5 (de) Autonome roboter und verfahren zum betreiben derselben
DE112010002677T5 (de) Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen
DE102017116853A1 (de) System und Verfahren zur automatischen Auswahl von 3D-Ausrichtungsalgorithmen in einem Sehsystem
DE102014105506B4 (de) Robotsauger und Verfahren zum Betrieb eines solchen Robotsaugers
EP3048456A1 (de) Verfahren zur lokalisierung von greifpunkten von objekten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20141106

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final