DE102013018222B4 - Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts - Google Patents

Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts Download PDF

Info

Publication number
DE102013018222B4
DE102013018222B4 DE102013018222.0A DE102013018222A DE102013018222B4 DE 102013018222 B4 DE102013018222 B4 DE 102013018222B4 DE 102013018222 A DE102013018222 A DE 102013018222A DE 102013018222 B4 DE102013018222 B4 DE 102013018222B4
Authority
DE
Germany
Prior art keywords
target object
holding unit
visual sensor
orientation
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013018222.0A
Other languages
English (en)
Other versions
DE102013018222A1 (de
Inventor
Kazunori Ban
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102013018222A1 publication Critical patent/DE102013018222A1/de
Application granted granted Critical
Publication of DE102013018222B4 publication Critical patent/DE102013018222B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39508Reorientation of object, orient, regrasp object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Abstract

Aufnahmevorrichtung (10) zum Aufnehmen eines Zielobjekts (14a) mit einem Roboter (16) aus einer Mehrzahl von in einem Behälter (12) beliebig aufeinandergestapelten Objekten (14) und zum Platzieren des Zielobjekts (14a) mit einer vorbestimmten Ausrichtung an einem Zielort, wobei der Roboter (16) eine Halteeinheit (22) zum lösbaren Halten des Zielobjekts (14a) umfasst, wobei die Aufnahmevorrichtung (10) folgendes umfasst:einen ersten visuellen Sensor (28) zum Beschaffen von Informationen bezüglich einer Höhenverteilung der Mehrzahl von Objekten (14) in dem Behälter (12),einen ungefähre-Position-Beschaffungsteil (52) zum Beschaffen von Informationen bezüglich einer ungefähren Position des Zielobjekts (14a), das sich in einer höheren Position als umgebende Objekte (14) in dem Behälter (12) befindet, basierend auf den vom ersten visuellen Sensor (28) beschafften Informationen bezüglich einer Höhenverteilung;einen Aufnahmevorgangsteuerteil (54) zum Steuern des Roboters (16), um es der Halteeinheit (22) zu ermöglichen, das Zielobjekt (14a) zu halten, basierend auf den von dem ungefähre-Position-Beschaffungsteil (52) beschafften Informationen bezüglich einer ungefähren Position des Zielobjekts (14a);einen zweiten visuellen Sensor (38) zum Beschaffen von Informationen bezüglich einer Position und Ausrichtung des Zielobjekts (14a) relativ zu der Halteeinheit (22) durch Vermessen des Zielobjekts (14a), wenn das Zielobjekt (14a) von der Halteeinheit (22) gehalten wird; undeinen Platzierungsvorgangsteuerteil (56) zum Steuern des Roboters (16), um das von der Halteeinheit (22) gehaltene Zielobjekt (14a) in eine vorbestimmte Position und Ausrichtung relativ zum Zielort zu bringen, basierend auf der von dem zweiten visuellen Sensor (38) beschafften Position und Ausrichtung des Zielobjekts (14a) relativ zur Halteeinheit (22).

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zum Aufnehmen eines Objekts mit einem Roboter aus einer Mehrzahl von in einem Behälter beliebig aufeinandergestapelten Objekten.
  • Im Zusammenhang mit einem automatischen Aufnahmevorgang zum sukzessiven Aufnehmen eines Objekts aus einer Mehrzahl von in einem Behälter beliebig aufeinandergestapelten Objekten sind verschiedene Ansätze vorgeschlagen worden. In den letzten Jahren wurden praktische Ansätze eingeführt, da die Verarbeitungskapazität eines Computers sich steigert und eine Bildverarbeitungstechnik voranschreitet. Zum Beispiel offenbart JP 2004 - 118 562 A ein Ermitteln eines aufzunehmenden Objekts basierend auf einem Messen einer ungefähren Höhenverteilung von Objekten, die beliebig aufeinandergestapelt sind, vor einem Messen von Positionen und Ausrichtungen der Objekte.
  • Es besteht ein Bedarf für eine praktische Aufnahmevorrichtung und ein Verfahren zum Aufnehmen eines Objekts, die es ermöglichen, dass ein Aufnahmevorgang des Objekts automatisiert wird.
  • Des Weiteren sind die nachstehenden Druckschriften im Stand der Technik bekannt:
    • DE 10 2008 052 436 A1 offenbart ein Verfahren zum Vereinzeln von Bauteilen aus einem Behältnis, bei welchem an zumindest einem der Bauteile eine Angriffsfläche zum Ansetzen einer Greifeinheit ermittelt wird und das mittels der Greifeinheit an einer Angriffsstelle der Angriffsfläche ergriffene Bauteil einer Erkennungseinrichtung zugeführt wird. Mittels der Erkennungseinrichtung wird eine Lage der Angriffsstelle relativ zu dem Bauteil ermittelt. Des Weiteren betrifft die Erfindung eine Vorrichtung zum Vereinzeln von Bauteilen aus einem Behältnis.
    • DE 10 2009 030 461 A1 offenbart eine Vorrichtung zum Aufnehmen von Objekten, die in der Lage ist, ein Objekt nach dem anderen im zufällig angehäuften Zustand aufzunehmen. Ein Zieldetektionsteil eines Bildverarbeitungsteils verarbeitet ein von einer Kamera aufgenommenes Bild und erkennt Objekte. Ein Zielauswahlteil wählt auf Basis einer bestimmten Regel ein Objekt aus den erkannten Objekten. Ein Sichtlinienrichtung-Berechnungsteil berechnet die Richtung der zum gewählten Objekt verlaufenden Sichtlinie. Ein Zielposition-Schätzungsteil schätzt die Position einschließlich der Höhe des gewählten Objekts auf Basis der Größeninformation des Objekts im Bild. Danach berechnet ein Greifkorrektur-Berechnungsteil den Korrekturbetrag für die Roboterbewegung, damit das Objekt unter Verwendung des Roboters gegriffen werden kann.
    • DE 100 80 012 B4 offenbart ein dreidimensionales Verfahren zum Erkennen von Gegenständen und ein System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens, wobei ein zweidimensionales Merkmal des Gegenstandes mittels eines Stereobildes erfasst wird.
    • EP 2 364 823 A2 offenbart ein Robotersystem und ein Transferverfahren für Werkstücke, wobei ein Formsensor verwendet wird, um die Form eines in einem Behälter befindlichen Werkstücks zu bestimmen, sodass dessen Greifeignung ermittelt wird.
    • US 2012 / 0 113 268 A1 offenbart eine Bilderzeugungsvorrichtung mit zwei bilderhaltenden Einheiten.
  • Gemäß einem ersten Aspekt der vorliegenden Offenbarung ist eine Aufnahmevorrichtung bereitgestellt, zum Aufnehmen eines Zielobjekts mit einem Roboter aus einer Mehrzahl von in einem Behälter beliebig aufeinandergestapelten Objekten und zum Platzieren des Zielobjekts mit einer vorbestimmten Ausrichtung an einem Zielort, wobei der Roboter eine Halteeinheit zum lösbaren Halten des Zielobjekts umfasst, wobei die Aufnahmevorrichtung folgendes umfasst: einen ersten visuellen Sensor zum Beschaffen von Informationen bezüglich einer Höhenverteilung der Mehrzahl von Objekten in dem Behälter, einen ungefähre-Position-Beschaffungsteil zum Beschaffen von Informationen bezüglich einer ungefähren Position des Zielobjekts, das sich in einer höheren Position als umgebende Objekte in dem Behälter befindet, basierend auf den vom ersten visuellen Sensor beschafften Informationen bezüglich einer Höhenverteilung; einen Aufnahmevorgangsteuerteil zum Steuern des Roboters, um es der Halteeinheit zu ermöglichen, das Zielobjekt zu halten, basierend auf den von dem ungefähre-Position-Beschaffungsteil beschafften Informationen bezüglich einer ungefähren Position des Zielobjekts; einen zweiten visuellen Sensor zum Beschaffen von Informationen bezüglich einer Position und Ausrichtung des Zielobjekts relativ zu der Halteeinheit durch Vermessen des Zielobjekts, wenn das Zielobjekt von der Halteeinheit gehalten wird; und einen Platzierungsvorgangsteuerteil zum Steuern des Roboters, um das von der Halteeinheit gehaltene Zielobjekt in eine vorbestimmte Position und Ausrichtung relativ zum Zielort zu bringen, basierend auf der von dem zweiten visuellen Sensor beschafften Position und Ausrichtung des Zielobjekts relativ zur Halteeinheit.
  • Gemäß einem zweiten Aspekt der vorliegenden Offenbarung ist bei der Aufnahmevorrichtung gemäß dem ersten Aspekt der zweite visuelle Sensor eine zweidimensionale Kamera.
  • Gemäß einem dritten Aspekt der vorliegenden Offenbarung ist bei der Aufnahmevorrichtung gemäß dem ersten Aspekt der zweite visuelle Sensor ein dreidimensionaler visueller Sensor.
  • Gemäß einem zweiten Aspekt der vorliegenden Offenbarung umfasst die Aufnahmevorrichtung bei der Aufnahmevorrichtung gemäß einem der ersten bis dritten Aspekte ferner: einen Halteeinheitinformationsspeicherteil zum Speichern einer von dem zweiten visuellen Sensor beschafften ersten Information, wobei die erste Information mit einem Zustand der Halteeinheit assoziiert ist, in dem die Halteeinheit das Zielobjekt nicht hält; und einen Relativpositions- und -ausrichtungsberechnungsteil zum Berechnen der Position und Ausrichtung des Zielobjekts relativ zu der Halteeinheit, basierend auf der ersten Information und einer von dem zweiten visuellen Sensor beschafften zweiten Information, wobei die zweite Information mit einem Zustand der Halteeinheit assoziiert ist, in dem die Halteeinheit das Zielobjekt hält.
  • Gemäß einem fünften Aspekt der vorliegenden Offenbarung ist ein Verfahren bereitgestellt, zum Aufnehmen eines Zielobjekts mit einem Roboter aus einer Mehrzahl von in einem Behälter beliebig aufeinandergestapelten Objekten und zum Platzieren des Zielobjekts in einer vorbestimmten Ausrichtung an einem Zielort, wobei der Roboter eine Halteeinheit zum lösbaren Halten des Zielobjekts umfasst, wobei das Verfahren folgendes umfasst: Beschaffen von Informationen bezüglich einer Höhenverteilung der Mehrzahl von Objekten in dem Behälter mit einem ersten visuellen Sensor; Beschaffen von Informationen bezüglich einer ungefähren Position des Zielobjekts, das sich in einer höheren Position als umgebende Objekte in dem Behälter befindet, basierend auf den von dem ersten visuellen Sensor beschafften Informationen bezüglich einer Höhenverteilung; Steuern des Roboters, um es der Halteeinheit zu ermöglichen, das Zielobjekt zu halten, basierend auf den Informationen bezüglich einer ungefähren Position des Zielobjekts; Beschaffen von Informationen bezüglich einer Position und Ausrichtung des Zielobjekts relativ zu der Halteeinheit mit einem zweiten visuellen Sensor, durch Vermessen des Zielobjekts in einem Zustand, in dem das Zielobjekt von der Halteeinheit gehalten ist; und Steuern des Roboters, um das von der Halteeinheit gehaltene Zielobjekt in eine vorbestimmte Position und Ausrichtung relativ zu dem Zielort zu bringen, basierend auf den von dem zweiten visuellen Sensor beschafften Informationen bezüglich einer Position und Ausrichtung des Zielobjekts relativ zu der Halteeinheit.
  • Gemäß einem sechsten Aspekt der vorliegenden Offenbarung ist bei dem Verfahren gemäß dem fünften Aspekt der zweite visuelle Sensor eine zweidimensionale Kamera.
  • Gemäß einem siebten Aspekt der vorliegenden Offenbarung ist bei dem Verfahren gemäß dem fünften Aspekt der zweite visuelle Sensor ein dreidimensionaler visueller Sensor.
  • Gemäß einem achten Aspekt der vorliegenden Offenbarung umfasst das Verfahren bei dem Verfahren gemäß einem der fünften bis siebten Aspekte ferner: wenn die Informationen bezüglich einer Position und Ausrichtung des Zielobjekts relativ zu der Halteeinheit beschafft wurden: Auslesen einer ersten Information, die vorab von dem ersten visuellen Sensor beschafft und gespeichert wurde, wobei die erste Information mit einem Zustand der Halteeinheit assoziiert ist, in dem die Halteeinheit das Zielobjekt nicht hält; und Berechnen der Position und Ausrichtung des Zielobjekts relativ zu der Halteeinheit, basierend auf der ersten Information und einer von dem zweiten visuellen Sensor beschafften zweiten Information, wobei die zweite Information mit einem Zustand der Halteeinheit assoziiert ist, in dem die Halteeinheit das Zielobjekt hält.
  • Damit löst die vorliegende Erfindung die Aufgabe, dass ein Bedarf vermieden wird, eine Position und Ausrichtung des Zielobjekts genau zu messen, bevor das Zielobjekt von dem Roboter gehalten wird. Eine präzise dreidimensionale Messung wird nur für das von dem Roboter gehaltene Zielobjekt ausgeführt. Dies vereinfacht den Messprozess verglichen zu dem Fall, in dem dreidimensionale Messungen für eine große Anzahl von Zielobjekten gleichzeitig ausgeführt werden, so dass die Messung präzise sein kann. Als ein Resultat kann die Präzision eines Prozesses zum Platzieren des Zielobjekts in einer Zielposition verbessert werden. Da kein Bedarf zum Verarbeiten einer großen Anzahl von dreidimensionalen Daten besteht, ist ferner weniger Zeit erforderlich, um die Berechnung zu vervollständigen, was in einer erhöhten Effektivität resultiert.
  • Diese und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung verdeutlichen sich in Anbetracht der detaillierten Beschreibung von beispielhaften Ausführungsformen von dieser, wie durch die Figuren dargestellt.
    • 1 ist eine Seitenansicht, die ein Robotersystem gemäß einer Ausführungsform der vorliegenden Erfindung schematisch darstellt;
    • 2 ist eine Seitenansicht, die ein Robotersystem gemäß einer Ausführungsform der vorliegenden Erfindung schematisch darstellt;
    • 3 ist eine Seitenansicht, die ein Robotersystem gemäß einer Ausführungsform der vorliegenden Erfindung schematisch darstellt;
    • 4 ist eine vergrößerte Ansicht, die einen Behälter darstellt, in dem Werkstücke aufgenommen sind;
    • 5 ist eine vergrößerte Ansicht, die einen Behälter darstellt, in dem Werkstücke aufgenommen sind;
    • 6A bis 6C sind teilweise vergrößerte Ansichten, die beispielhafte Zustände darstellen, in denen ein Werkstück von einem Endeffektor gehalten wird;
    • 7A bis 7C sind teilweise vergrößerte Ansichten, die ein beispielhaftes von einem Endeffektor gehaltenes Werkstück darstellen;
    • 8A bis 8C zeigen beispielhafte von einem zweiten visuellen Sensor beschaffte Bilder;
    • 9A bis 9C zeigen einen Prozess, in dem ein Zielwerkstück von einem Endeffektor in einer anderen Ausführungsform gehalten ist;
    • 10 zeigt ein funktionales Blockdiagramm eines Verarbeitungsteils des Robotersystems;
    • 11 zeigt ein funktionales Blockdiagramm eines Relativpositions- und -ausrichtungsbeschaffungsteils; und
    • 12 ist ein Flussdiagramm, das einen Ablauf zum Aufnehmen eines Zielobjekts mit dem Robotersystem zeigt.
  • Ausführungsformen der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die begleitenden Zeichnungen beschrieben. Die dargestellten Bestandteilelemente können bezüglich ihrer Größe für ein besseres Verständnis der Erfindung bezogen aufeinander modifiziert sein. Gleiche oder korrespondierende Bestandteilelemente werden mit den gleichen Referenzzeichen versehen.
  • Bezugnehmend auf 1 bis 3 wird eine Konfiguration und Funktionen einer beispielhaften Aufnahmevorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung beschrieben, d.h., ein Robotersystem 10. 1 bis 3 sind Seitenansichten, die das Robotersystem 10 schematisch darstellen. Das Robotersystem 10 wird verwendet, um ein Zielwerkstück 14a aus einer Mehrzahl von in einem Container 12 beliebig aufeinandergestapelten Werkstücken 14 (siehe 2) aufzunehmen und das Zielwerkstück 14a in einer vorbestimmen Ausrichtung an einem Zielort zu platzieren (siehe 3). Der Begriff „Zielwerkstück 14a (Zielobjekt)“, wie hierbei verwendet, bezeichnet ein Werkstück (Objekt), das ausgewählt ist, um während eines Aufnahmevorgangs aus dem Behälter 12 aufgenommen zu werden. Dieser Begriff wird der Einfachheit halber verwendet, um es von dem Rest der Werkstücke 14 zu unterscheiden, die in dem Behälter 12 verbleiben.
  • Der Behälter 12 weist eine Bodenwand und eine Umfangswand auf, die sich im Wesentlichen vertikal aufwärts von dem Umfang der Bodenwand erstreckt, um einen Raum zum Aufnehmen einer Mehrzahl von Werkstücken 14 zu definieren. Das Werkstück 14 ist ein beispielhaftes mit dem Robotersystem 10 aufzunehmendes Objekt und zum Beispiel ein halbzylindrisches Bauteil, das in einer Seitenansicht einen halbkreisförmigen, bogenförmigen Querschnitt aufweist, wie in den Zeichnungen dargestellt. In dem oberen Abschnitt des Behälters 12 ist eine Öffnung, zum Beispiel eine kreisförmige oder rechteckige Öffnung in einer Draufsicht, die es einem Roboter 16 ermöglichen, auf die Werkstücke 14 in dem Behälter 12 von oben zuzugreifen.
  • Der Roboter 16 ist ein bekannter Roboter, der mehrere Gelenkachsen aufweist, die von einer Robotersteuerung 20 gesteuert werden, die mit diesem über eine Leitung 24 verbunden ist. Der Roboter 16 ist mit einem Endeffektor 22 ausgestattet, der als ein Mittel zum lösbaren Halten des Werkstücks 14 dient. Zum Beispiel kann der Endeffektor 22 ein Greifer nach Saugnapfart sein, wie in den Figuren dargestellt, der ein Zielobjekt 14a durch eine über einen Unterdruck in seinem Inneren erzeugte Saugkraft halten kann. Alternativ kann der Endeffektor 22 ebenso ein magnetischer Greifer sein, der mit Mitteln zum Erzeugen einer Magnetkraft zusammenwirkt, wie beispielsweise einem Elektromagnet, ein hydraulischer Greifer, der Fluiddruck verwendet, oder eine mechanische Hand mit mehreren Fingern (oder Klauen), die sich in Reaktion auf ein elektromechanisches Mittel öffnen und schließen. Entsprechend kann der Endeffektor 22 in Abhängigkeit der Form des von dem Robotersystem 10 aufzunehmenden Werkstücks 14 (etc.) jegliche bekannte Konfigurationen aufweisen. Der Endeffektor 22 des Roboters 16 ist dazu eingerichtet, in Reaktion auf von der Robotersteuerung 20 gesendeten Antriebssignalen das Zielobjekt 14a zu halten oder loszulassen.
  • Ein erster visueller Sensor 28 ist an einem Lagergestell 26 oberhalb des Behälters 12 fest angebracht. In 1 zeigen strichlinierte Linien 30, die von dem ersten visuellen Sensor 28 nach unten verlaufen, einen Messbereich des ersten visuellen Sensors 28. Obwohl es in der vorliegenden Erfindung nicht notwendig ist, deckt der Messbereich des ersten visuellen Sensors 28, wie dargestellt, den gesamten Raum des Behälters 12 zum Aufnehmen der Werkstücke 14 ab. Der erste visuelle Sensor 28 ist über eine Leitung 32 mit einer Sensorsteuerung 34 verbunden und dazu eingerichtet, Signale bezüglich des Messprozesses an die Sensorsteuerung 34 zu übertragen und davon zu empfangen, wie beispielsweise einen Befehl zum Aktivieren eines Messprozesses und ein Ergebnis der Messung.
  • Der erste visuelle Sensor 28 ist ein dreidimensionaler visueller Sensor, der dazu eingerichtet ist, in Reaktion auf ein Messstartsignal von der Sensorsteuerung 34 Informationen bezüglich einer Höhenverteilung der Mehrzahl von Werkstücken in dem Behälter 12 zu beschaffen. Zum Beispiel besteht die Höhenverteilung aus einem Satz von dreidimensionalen Punkten, die entsprechend einer vorbestimmten besonderen Auflösung beschafft werden. Der Satz von dreidimensionalen Punkten ist zum Beispiel eine Gruppe von auf dreidimensionale Positionen bezogenen Daten, die als (X, Y, Z) in einem Arbeitskoordinatensystem dargestellt sind, bezogen auf das der Roboter 16 gesteuert wird. Der erste visuelle Sensor 28 kann jeglicher Typ eines dreidimensionalen visuellen Sensors sein, wie allgemein als „Entfernungsmesser“ bezeichnet [range finder].
  • Zum Beispiel ist der dreidimensionale visuelle Sensor mit einer Mehrzahl von zweidimensionalen Kameras ausgestattet, die zweidimensionale Bilddaten beschaffen können. Basierend auf den zweidimensionalen Bilddaten misst der dreidimensionale visuelle Sensor einen Abstand von dessen Sensorkopf zu einem Objekt gemäß dem Konzept der stereoskopischen Betrachtung [stereo vision]. Alternativ dazu kann der erste visuelle Sensor 28 ebenso ein dreidimensionaler Sensor sein, der dazu eingerichtet ist, mit einem Spaltlaserstrahl eine sich senkrecht zu einer Richtung der Laserprojektion erstreckende Oberfläche zu scannen und reflektiertes Licht des Laserstrahls mit einer an dem Sensorkopf angebrachten Kamera zu empfangen. Der erste visuelle Sensor 28 kann ebenso ein dreidimensionaler visueller Sensor nach time-of-flight-Art sein, der eine Mehrzahl von Infrarot-LEDs verwendet, die zur Bildung eines zweidimensionalen Feldes angeordnet sind. In diesem Fall wird ein Abstand zu dem Objekt (in diesem Beispiel das Werkstück 14) basierend auf einer Differenz bezüglich der Zeit gemessen, die für das von den Infrarot-LEDs ausgesandten Infrarotlicht notwendig ist, um zu dem Sensorkopf zurückzukehren, nachdem es von dem Objekt reflektiert wurde.
  • Das Messergebnis des ersten visuellen Sensors 28 wird an die Sensorsteuerung 34 über die Leitung 32 übertragen. Die Sensorsteuerung 34 kann ebenso eine Bildverarbeitungsvorrichtung (nicht gezeigt) umfassen, um eine Bildinformation von dem ersten visuellen Sensor 28 zu verarbeiten. Die Bildverarbeitungsvorrichtung kann in die Sensorsteuerung 34 eingegliedert sein, oder kann unabhängig von der Sensorsteuerung 34 bereitgestellt sein. An die Sensorsteuerung 34 ist ferner ein zweiter visueller Sensor 38 über eine Leitung 42 angeschlossen. Die Sensorsteuerung 34 und die mit der Sensorsteuerung 34 kooperierende Bildverarbeitungsvorrichtung sind nicht auf einen besonderen Typ beschränkt, sondern können verschiedene bekannte Arten von Steuerungen sein. Die von dem ersten visuellen Sensor 28 beschaffte Information bezüglich der Höhenverteilung der Werkstücke 14 wird an die mit der Sensorsteuerung 34 angeschlossene Robotersteuerung 20 über eine Leitung 36 übertragen, um für den Zweck des Steuerns des Roboters 16 verwendet zu werden, wie nachfolgend weiter beschrieben. In der dargestellten Ausführungsform sind die Robotersteuerung 20 und die Sensorsteuerung 34 voneinander separate Vorrichtungen, aber die Sensorsteuerung 34 kann in die Robotersteuerung 20 eingegliedert sein.
  • Der zweite visuelle Sensor 38 ist, wie dargestellt, in einem Abstand zu dem Behälter 12 angeordnet. Strichlinierte Linien 40 in 2, die von dem zweiten visuellen Sensor 38 aufwärts dargestellt sind, zeigen einen Messbereich des zweiten visuellen Sensors 38. Der zweite visuelle Sensor 38 misst ein von dem Endeffektor 22 des Roboters 16 gehaltenes Zielwerkstück 14a und beschafft Informationen bezüglich einer Position und Ausrichtung des Zielwerkstücks 14a relativ zu dem Endeffektor 22. Wie in 2 gezeigt, werden eine Position und Ausrichtung des Roboters 16 gesteuert um sicherzustellen, dass das Werkstück 14a innerhalb des Messbereichs des zweiten visuellen Sensors 38 ist, wenn das Messen des Zielwerkstücks 14a mit dem zweiten visuellen Sensor 38 ausgeführt wird. Die Position und Ausrichtung des Endeffektors 22 des Roboters 16 zum Ausführen des Messens mit dem zweiten visuellen Sensor 38 ist eine vordefinierte Information oder alternativ eine in der Robotersteuerung 20 beschaffte Information, zu einem Zeitpunkt, in dem das Messen ausgeführt wird. Die von dem zweiten visuellen Sensor 38 beschaffte Information bezüglich einer Position und Ausrichtung wird anschließend einer geeigneten Koordinatentransformation unterzogen, wodurch eine Position und Ausrichtung des Zielwerkstücks 14a relativ zu dem Endeffektor 22 des Roboters 16 erhalten werden kann. Zum Beispiel offenbart JP 4174342 B2 einen Prozess zum Berechnen einer Relativposition und -ausrichtung des Zielwerkstücks 14a, der eine Koordinatentransformation einschließt. Der zweite visuelle Sensor 38 kann in einer Position bereitgestellt sein, in der es möglich ist, das Zielwerkstück 14a unabhängig von den Werkstücken 14 innerhalb des Behälters 12 zu vermessen, ist aber nicht auf die in den Zeichnungen dargestellte Position beschränkt.
  • Ein Förderband 18 ist dazu eingerichtet, sukzessive das aus dem Behälter 12 aufgenommene Zielwerkstück 14a für jeglichen anschließenden Prozess weiter zu befördern. Das Zielwerkstück 14a wird auf das Förderband 18 platziert, um, wie in 3 gezeigt, eine vorbestimmte Ausrichtung relativ zu dem Förderband 18 einzunehmen (z.B. derart, dass der konvexe Abschnitt des Ziels 14a nach oben weist).
  • 10 zeigt ein funktionales Blockdiagramm eines Verarbeitungsteils 50 des Robotersystems 10, um Funktionen der Robotersteuerung 20 und der Sensorsteuerung 34 in dem Robotersystem 10 zu erläutern. Wie dargestellt, umfasst die Robotersteuerung 20 einen ungefähre-Position-Beschaffungsteil 52, einen Aufnahmevorgangssteuerteil 54 und einen Platzierungsvorgangssteuerteil 56. Die Sensorsteuerung 34 umfasst einen Höhenverteilungsbeschaffungsteil 60 und einen Relativpositions- und -ausrichtungsbeschaffungsteil 62. Der Höhenverteilungsbeschaffungsteil 60 dient dem Beschaffen einer Höhenverteilung der Werkstücke 14 in dem Behälter 12 basierend auf dem Messergebnis von dem ersten visuellen Sensor 28. Der Relativpositions- und -ausrichtungsbeschaffungsteil 62 dient dem Beschaffen einer Position und Ausrichtung eines Zielwerkstücks 14a relativ zu dem Endeffektor 22 basierend auf dem Messresultat von dem zweiten visuellen Sensor 38 in einem Zustand, in dem das Zielwerkstück 14a von dem Endeffektor 22 gehalten wird.
  • Der ungefähre-Position-Beschaffungsteil 52 beschafft Informationen bezüglich einer ungefähren Position des Zielwerkstücks 14a, das höher als die umgebenden Werkstücke 14 innerhalb des Behälters 12 positioniert ist, basierend auf der von dem Höhenverteilungsbeschaffungsteil 60 beschafften Höhenverteilung der Werkstücke 14. 4 zeigt eine vergrößerte Ansicht, die den Behälter 12 darstellt, in dem eine Vielzahl von Werkstücken 14 aufgenommen ist. In dem Robotersystem 10 werden Informationen bezüglich einer dreidimensionalen Position eines Abschnitts des Zielwerkstücks 14 in einer höheren Position als eine „ungefähre Position“ des Zielwerkstücks 14a bestimmt. In 4 stellt der dem Werkstück 14 hinzugefügte Buchstabe „X“ eine ungefähre Position des Zielwerkstücks 14a dar.
  • 5 ist eine vergrößerte Ansicht gleichartig zu 4. In einer in 5 gezeigten Ausführungsform wird eine ungefähre Position des Zielwerkstücks 14a entsprechend eines vorbestimmten Punkts (z.B. dem Schwerpunkt) auf einem ebenen Oberflächenabschnitt einer im Wesentlichen ebenen Oberfläche bestimmt, die sich über eine vorbestimmte Querschnittsfläche S erstreckt, anstelle eines in einer höheren Position angeordneten lokalen Abschnitts. Zum Beispiel wird der ebenen Flächenabschnitt gewählt, wenn er eine Querschnittsfläche S aufweist, die die Beziehung: S1 < S < S2 erfüllt, wobei S1 ein unterer Grenzwert und S2 ein oberer Grenzwert ist. In 5 stellt der auf dem Werkstück 14 abgebildete Buchstabe „X“ eine ungefähre Position des Zielwerkstücks 14a in dem dargestellten Beispiel dar.
  • Der beispielhafte Prozess zum Bestimmen einer ungefähren Position des Zielwerkstücks 14a wurde unter Bezugnahme auf die 4 und 5 beschrieben, aber die vorliegende Erfindung ist nicht darauf beschränkt. Mit anderen Worten kann eine von dem ungefähre-Position-Beschaffungsteil 52 beschaffte ungefähre Position des Zielwerkstücks 14a andere Formen annehmen, solange wie darauf basierend die Position identifiziert werden kann, die es dem Zielwerkstück 14a ermöglicht, von dem Endeffektor 22 gehalten zu werden. Entsprechend können ebenso andere Prozesse verwendet werden, um eine ungefähre Position des Zielwerkstücks 14a zu bestimmen.
  • Der Aufnahmevorgangssteuerteil 54 dient dem Erzeugen eines Antriebssignals basierend auf der von dem ungefähre-Position-Beschaffungsteil 52 beschafften ungefähren Position des Zielwerkstücks 14a, um den Roboter 16 zu steuern und das Zielwerkstück 14a mit dem Endeffektor 22 zu halten. Im Fall, dass die in Bezug auf die 4 und 5 beschriebene ungefähre Position des Zielwerkstücks 14a verwendet wird, wird der Roboter 16 bezüglich seiner Position und Ausrichtung gesteuert, um den Endeffektor in einer durch „X“ gezeigten Position anzuordnen.
  • Der Platzierungsvorgangssteuerteil 56 erzeugt ein Steuersignal basierend auf der von dem Relativpositions- und -ausrichtungsbeschaffungsteil 62 beschafften Relativposition und -ausrichtung des Zielwerkstücks 14a, um den Roboter 16 zu steuern und das mit dem Endeffektor 22 gehaltene Zielwerkstück 14a an einem Zielort auf dem Förderband 18 zu platzieren. Darüber hinaus wird der Roboter 16 gesteuert, so dass das Zielwerkstück 14a eine vorbestimmte Ausrichtung relativ zu dem Zielort aufweist oder, mit anderen Worten, so dass das Zielwerkstück 14a in einer vorbestimmten Ausrichtung auf dem Förderband 18 platziert wird. 3 zeigt eine beispielhafte Position und Ausrichtung des Roboters 16, wenn das Werkstück 14a auf dem Förderband 18 platziert wird.
  • Die 6A bis 6C und 7A bis 7C sind teilweise vergrößerte Ansichten, die Beispiele von von dem Endeffektor 22 gehaltenen Zielwerkstücken 14a darstellen. 6A zeigt das an einem Abschnitt nahe einem Ende eines kreisförmigen Bogenabschnitts gehaltene Zielwerkstück 14a. Durch Rotieren des Zielwerkstücks 14a um ca. 90° in einer Richtung im Uhrzeigersinn, um eine Ausrichtung des Roboters 16 zu ändern, kann in diesem Fall einen vorbestimmte Ausrichtung des Zielwerkstücks 14a relativ zu dem Förderband 18 erhalten werden, wie in 3 gezeigt. 6B zeigt ein Zielwerkstück 14a, dessen konvexer Abschnitt von dem Endeffektor 22 gehalten ist und das im Wesentlichen vertikal nach oben weist. Mit anderen Worten weist das Zielwerkstück 14a bereits eine vorbestimmte Ausrichtung relativ zu dem Förderband 18 auf. In diesem Fall kann das Zielwerkstück 14a daher unter Aufrechterhalten der bestehenden Ausrichtung des Zielwerkstücks 14a zu dem Förderband 18 bewegt werden.
  • 6C zeigt ein von dem Endeffektor 22 gehaltenes Zielwerkstück 14a in einem Zustand, in dem das Zielwerkstück 14a um 180° aus einer vorbestimmten Ausrichtung relativ zu dem Förderband 18 gedreht ist. In diesem Fall ist es schwierig, das Zielwerkstück 14a in einer geeigneten Ausrichtung auf das Förderband 18 durch einfaches Verändern der Ausrichtung des Roboters 16 zu platzieren. Daher wird zum Beispiel ein mit einer Öffnung 46 ausgebildeter Tisch 44 verwendet, in die der Endeffektor 22 eingeführt werden kann, wie in 7A gezeigt. Wie in den 7A bis 7C ersichtlich, wird das Zielwerkstück 14a zunächst auf dem Tisch 44 platziert und das Zielwerkstück 14a wird anschließend wieder von dessen gegenüberliegenden Seite gehalten.
  • Bezug nehmend auf 8A bis 8C und 11 wird ein beispielhafter Prozess zum Beschaffen einer Relativposition und -ausrichtung des Zielwerkstücks 14a mit dem Relativpositions- und -ausrichtungsbeschaffungsteil 62 beschrieben. 8A bis 8C zeigen beispielhafte mit dem zweiten visuellen Sensor 38 beschaffte Bilder. 11 zeigt ein funktionales Blockdiagramm eines Relativpositions- und -ausrichtungsbeschaffungsteils 62 in einer Ausführungsform. Wie in 11 gezeigt umfasst der Relativpositions- und -ausrichtungsbeschaffungsteil 62 ferner einen Halteeinheitinformationsspeicherteil 64, einen Messinformationsvergleichsteil 66 und einen Relativpositions- und -ausrichtungsberechnungsteil 68.
  • Der Halteeinheitinformationsspeicherteil 64 speichert Messinformationen, zum Beispiel ein Bild des Endeffektors 22 (Halteeinheit) in einem Zustand, in dem der Endeffektor 22 das Zielwerkstück 14a nicht hält. 8B zeigt ein Bild des Endeffektors 22, wenn der Endeffektor das Zielwerkstück 14a nicht hält. Der Halteinheitinformationsspeicherteil 64 wird zum Speichern von Bildinformationen verwendet, wie beispielsweise in 8B gezeigt. Im Gegensatz dazu zeigt 8A ein Bild des Endeffektors 22, der das Zielwerkstück 14a hält. Das Bild von 8A wird von dem zweiten visuellen Sensor 38 beschafft, zum Beispiel in einem in 2 gezeigten Zustand. Daher erfasst 8A sowohl den Endeffektor 22 als auch das Zielwerkstück 14a. In den in 8A und 8B gezeigten Zuständen ist der Endeffektor 22 positioniert, um jeweils in der gleichen Position und Ausrichtung angeordnet zu sein.
  • Der Messinformationsvergleichsteil 66 vergleicht das Bild von 8A und das Bild von 8B miteinander und entfernt ein Bild, das in den beiden Bildern gemeinsam existiert, aus dem Bild von 8A, um ein Bild zu erhalten, in dem lediglich das Zielwerkstück 14a erscheint, wie in 8C gezeigt. Der Relativpositions- und -ausrichtungsberechnungsteil 68 berechnet eine Position und Ausrichtung des Zielwerkstücks 14a relativ zu dem Endeffektor 22 basierend auf dem von dem Messinformationsvergleichsteil 66 beschafften Bild des Zielwerkstücks 14a. Auf diese Weise beschafft der Relativpositions- und ausrichtungsberechnungsteil 62 die Relativposition und -ausrichtung des Zielwerkstücks 14a basierend auf dem Messergebnis des zweiten visuellen Sensors 38.
  • Bezugnehmend auf 12 wird als nächstes ein Prozess zum Aufnehmen eines Zielwerkstücks 14a mit dem Robotersystem 10 gemäß der vorstehend beschriebenen Ausführungsform beschrieben. 12 ist ein Flussdiagramm, das einen Aufnahmeprozess des Zielwerkstücks 14a mit dem Robotersystem 10 zeigt.
  • In Reaktion auf ein von der Robotersteuerung 20 erhaltenen Startbefehl wird ein Messstartsignal an den ersten visuellen Sensor 28 durch die Sensorsteuerung 34 ausgegeben. Zum Beispiel kann der Startbefehl von einem Benutzer erzeugt werden, der ein Bedienteil (nicht gezeigt) bedient. In Reaktion auf das Messstartsignal von der Sensorsteuerung 34 beschafft der erste visuelle Sensor 28 Informationen bezüglich einer Höhenverteilung der Werkstücke 14, die durch einen Abstand zwischen dem Sensorkopf und dem Werkstück 14 bestimmt werden. Die Informationen bezüglich einer Höhenverteilung der Werkstücke 14 wird in den Höhenverteilungsbeschaffungsteil 60 der Sensorsteuerung 34 eingegeben und die Höhenverteilung der Werkstücke 14 innerhalb des Behälters 12 berechnet (Schritt S101). Während dieses Prozesses wurden der Roboter 16 und dessen Endeffektor 22 in eine von dem Behälter 12 beabstandete Position zurückgefahren, um nicht innerhalb eines von den strichlinierten Linien 30 begrenzten Messbereichs gefangen zu sein, wodurch eine Beeinträchtigung des Messens mit dem ersten visuellen Sensor 28 vermieden wird. Es gilt zu beachten, dass ein Kalibrierungsprozess zum Zuordnen von mit dem ersten visuellen Sensor 28 gemessenen Daten zu einer Arbeitskoordinate des Roboters 16 vorab vervollständigt wurde.
  • Basierend auf der in Schritt S101 beschafften Höhenverteilung wird ein ebener Oberflächenabschnitt (werden ebene Oberflächenabschnitte) von der Sensorsteuerung 34 erfasst (Schritt S102). Darüber hinaus wird die Anzahl von erfassten ebenen Oberflächenabschnitten n gezählt. Der ebene Oberflächenabschnitt ist ein Teil des Werkstücks 14, der sich im Wesentlichen horizontal über eine vorbestimmte Fläche S erstreckt, wie vorstehend in Bezug auf 5 beschrieben. Wenn wenigstens ein ebener Oberflächenabschnitt erfasst wird, setzt der Prozess mit den nächsten Schritt S104 fort. Wenn kein ebener Oberflächenabschnitt erfasst wird, wird angenommen, dass kein Zielwerkstück 14a vorhanden ist, das aufgenommen werden soll, und der Aufnahmeprozess wird beendet (Schritt S103). Wenn wenigstens ein ebener Oberflächenabschnitt in Schritt S103 erfasst wird, wird eine Reihenfolge der Zielwerkstücke 14a entsprechend der ebenen Oberflächenabschnitte bestimmt, um diese in einer absteigenden Höhenreihenfolge von bestimmten Positionen (z.B. Schwerpunkt) der erfassten ebenen Abschnitte der Werkstücke 14 zu sortieren (Schritt S104).
  • In Schritt S105 wird, um die Zielwerkstücke 14a aus dem Behälter 12 sukzessive aufzunehmen, „i“ durch „i,“ ersetzt, welches den „i-ten“ Oberflächenabschnitt darstellt. Anschließend wird eine Position und Ausrichtung des Roboters 16 berechnet, die es dem Endeffektor 22 des Roboters 16 ermöglicht, das „i-te“ Zielwerkstück zu halten (Schritt S106). Die Position und Ausrichtung des Roboters 16 zum Halten des Zielwerkstücks 14a wird basierend auf einer ungefähren Position des Zielwerkstücks 14a bestimmt, die von dem ungefähre-Position-Beschaffungsteil 52 beschafft wird.
  • Der Roboter 16 wird anschließend entsprechend eines von dem Aufnahmevorgangsteuerteil 54 der Robotersteuerung 20 ausgegebenen Steuersignals bewegt und in einer in Schritt S106 berechneten Roboterposition angeordnet. Nachdem der Roboter 16 die vorbestimmte Position erreicht hat, wird der Endeffektor 22 angetrieben, um das Zielwerkstück 14a zu halten (Schritt S107).
  • Wenn das Zielwerkstück 14a von dem Endeffektor 22 gehalten wird, wird der Roboter 16 bewegt, um das Zielwerkstück 14a aus dem Behälter 12 zu entnehmen. Wie in 2 gezeigt, wird der Roboter 16 zu einer Position bewegt, in der der zweite visuelle Sensor 38 das Zielwerkstück 14a vermessen kann. Anschließend wird der Endeffektor mit dem davon gehaltenen Zielwerkstück 14a von dem zweiten visuellen Sensor 38 vermessen (Schritt S108). Es sollte beachtet werden, dass ein Kalibrierungsprozess zum Zuordnen von mit dem zweiten visuellen Sensor 38 gemessenen Daten zu einer Arbeitskoordinate des Roboters 16 vorab vervollständigt wurde.
  • Danach wird der Relativpositions- und -ausrichtungsbeschaffungsteil 62 aktiviert, um eine Position und Ausrichtung des Zielwerkstücks 14a relativ zu dem Endeffektor 22 zu berechnen (Schritt S109). Um die Relativposition und -ausrichtung des Zielwerkstücks 14a zu berechnen, werden der Halteeinheitinformationsspeicherteil 64, der Messinformationsvergleichsteil 66 und der Relativpositions- und -ausrichtungsbeschaffungsteil 68 aktiviert, die in Zusammenhang mit 11 vorstehend beschrieben wurden. Basierend auf der Relativposition und -ausrichtung des Zielwerkstücks 14a werden eine Position und Ausrichtung des Roboters 16 berechnet, die es dem Zielwerkstück ermöglichen, in einer vorbestimmten Ausrichtung und an einer vorbestimmten Position platziert zu werden (Schritt S110). Anschließend wird der Platzierungsvorgangssteuerteil 56 aktiviert, um den Roboter 16 zu einer in Schritt S110 berechneten gegebenen Position zu bewegen. Nachdem der Roboter 16 zu der vorstehenden Position bewegt wurde, wird der Endeffektor 22 gelöst, um das Zielwerkstück 14a auf dem Förderband 18 zu platzieren (Schritt S111).
  • Als Ergebnis der vorstehenden Schritte S106 bis S111 wird ein Zielwerkstück 14a aufgenommen, aus dem Behälter 12 entnommen und an einem Zielort platziert. Um ein als nächstes aufzunehmendes Zielwerkstück 14a auszuwählen, wird „i“ durch „i+1“ ersetzt (Schritt S112). Anschließend wird beurteilt, ob der Wert von „i“ die Anzahl von in Schritt S102 erfassten ebenen Oberflächenabschnitten n überschreitet oder nicht (Schritt S113). Wenn „i“ gleich oder geringer als „n,“ ist, bedeutet dies, dass die Anzahl von Zielwerkstücken 14a, die sich noch in dem Behälter befinden, gleich n-(i-1) ist, während die Anzahl von Zielwerkstücken 14a mit den in Schritt S102 erfassten ebenen Oberflächenabschnitten n ist. Anschließend kehrt der Prozess zu Schritt S106 zurück, um den Aufnahmeprozess für die verbleibenden Zielwerkstücke 14a fortzusetzen. Auf diese Weise werden die Schritt S106 bis S111 wiederholt, bis ein Aufnahmeprozess für sämtliche der Werkstücke 14a mit den in Schritt S102 erfassten ebenen Oberflächenabschnitten vervollständigt ist.
  • Wenn andererseits bestimmt wird, dass „i“ größer als „n“ ist, oder, mit anderen Worten, bestimmt wurde, dass sämtliche der Zielwerkstücke 14a mit den in Schritt S102 erfassten ebenen Oberflächenabschnitten bereits entnommen wurden, kehrt der Prozess zu Schritt S101 zurück, um erneut einen Prozess zum Beschaffen einer Höhenverteilung der Werkstücke 14 auszuführen.
  • Gemäß der vorstehend beschriebenen Ausführungsform werden eine Position und Ausrichtung des Zielwerkstücks 14a relativ zu dem Endeffektor 22 des Roboters 16 von dem zweiten visuellen Sensor 38 in dem Zustand gemessen, in dem das Zielwerkstück 14a von dem Roboter 16 gehalten ist. Daher besteht kein Bedarf, eine Position und Ausrichtung des Zielwerkstücks 14a während eines Messprozesses von dem ersten visuellen Sensor 28 genau zu messen, der ausgeführt wird, bevor das Zielwerkstück 14a gehalten wird. Mit anderen Worten ist es lediglich erforderlich, eine ungefähre Position der Zielwerkstücke 14a in dem Maße zu bestimmen, in dem das Zielwerkstück 14a mit dem Endeffektor 22 gehalten werden kann. Auf diese Weise kann ein Messprozess für das Werkstück 14a mit dem ersten visuellen Sensor 28 in einer kürzeren Zeitdauer vervollständigt werden. Darüber hinaus wird eine genaue Messung einer dreidimensionalen Position und Ausrichtung lediglich für ein Zielwerkstücke 14a ausgeführt, das von dem Roboter 16 gehalten wird. In diesem Fall besteht kein Risiko des Misslingens bezüglich des Erkennens einiger Werkstücke 14 hinter anderen Werkstücken 14 und daher kann der Messprozess mit einer hohen Präzision ausgeführt werden, verglichen mit dem Fall, in dem eine Vielzahl von Werkstücken 14 gleichzeitig einer dreidimensionalen Messung unterzogen werden. Als ein Resultat kann die Genauigkeit eines Prozesses zum Platzieren des Zielwerkstücks 14a an einem vorbestimmten Ort verbessert werden. Da kein Bedarf zum Verarbeiten einer großen Menge von dreidimensionalen Daten besteht, wird darüber hinaus die für eine Berechnung benötigte Zeit verkürzt und die Produktivität kann verbessert werden. Entsprechend sind eine Vorrichtung und ein Prozess zum Aufnehmen von Werkstücken 14a gemäß der vorliegenden Ausführungsform zweckdienlicher, als bestehende Technologien.
  • Um Positionen und Ausrichtungen einer Vielzahl von beliebig in dem Behälter aufeinandergestapelten Objekten präzise zu messen, sind üblicherweise eine fortgeschrittene Technologie und ein Rechner mit einer erhöhten Leistung erforderlich. Gemäß der vorliegenden Ausführungsform sind diese jedoch nicht notwendig. Wenn ein Zielobjekt mit einem Roboter gehalten wird, ist der Roboter allgemein dazu eingerichtet, einen vorbestimmten Abschnitt des Zielobjekts zu halten. Um dies zu tun, ist es daher notwendig, eine Position und Ausrichtung des Zielobjekts präzise zu messen. In der vorliegenden Ausführungsform ist hingegen, wie in 6A bis 6C gezeigt, eine Beziehung zwischen dem von dem Roboter 16 gehaltenen Zielwerkstück 14a und den Endeffektor 22 des Roboters 16 nicht besonders eingeschränkt. Daher ist eine hohe Genauigkeit beim Messen einer Mehrzahl von Werkstücken 14a innerhalb des Behälter 12 nicht unbedingt erforderlich.
  • Allgemein wird ein Erfassungsmodell, das einer Form eines Objekts entspricht, in einem visuellen Sensor vorab eingestellt. Für diesen Zweck ist es notwendig, verschiedene Einstellungen geringfügig anzupassen, wenn Erfassungsmodelle für die jeweiligen aufzunehmenden Objekte modifiziert werden. Gemäß der vorliegenden Erfindung, in der eine ungefähre Position des Zielobjekts basierend auf einer Höhenverteilung der Objekte bestimmt wird, ist im Gegensatz dazu ein Einfluss aufgrund von Unterschieden bezüglich der Formen der Objekte auf die Messgenauigkeit relativ gering und daher kann die vorliegende Ausführungsform auf verschiedene Objekte ohne zusätzliche Anpassungen angewandt werden.
  • Obwohl die beispielhafte Ausführungsform beschrieben wurde, in der ein dreidimensionaler visueller Sensor als der zweite visuelle Sensor 38 verwendet wird, ist die vorliegende Erfindung nicht auf eine solche besondere Konfiguration beschränkt. In einer alternativen Ausführungsform kann der zweite visuelle Sensor 38 eine zweidimensionale Kamera sein. In dieser Ausführungsform weist ein Zielwerkstück 14a' beispielsweise eine im Wesentlichen flache Scheibenform auf, wie in 9A gezeigt. Ein Endeffektor 22' ist in dieser Ausführungsform ein Greifer in Form eines Saugnapfes mit Bälgen 70. Die 9A bis 9C zeigen Prozesse des Haltens des Zielwerkstücks 14a' mit dem Endeffektor 22'. Wie in 9A gezeigt, sind die Zielwerkstücke 14a' in dem Behälter 12 (nicht gezeigt) wie in der vorstehend beschriebenen Ausführungsform beliebig aufeinandergestapelt, so dass die Zielwerkstücke 14a' verschiedene Positionen und Ausrichtungen relativ zum Endeffektor 22' aufweisen. Jedoch kann der mit den Bälgen 70 ausgestattete Endeffektor 22', wie in 9B gezeigt, seine Form entsprechend der Ausrichtung der Zielwerkstücke 14a' ändern. Wie in 9C gezeigt, wird eine Oberfläche des Zielwerkstücks 14a' senkrecht zu dem Endeffektor 22 orientiert, wenn das Zielwerkstück 14a' nach oben gezogen wird. Dies gilt für jegliches Zielwerkstück 14a' in dem Behälter 12, unabhängig von dessen Ausrichtung.
  • Im Fall, dass der Endeffektor 22' und das Zielwerkstück 14a' wie vorstehend beschrieben verwendet werden, können daher eine Position und Ausrichtung des Zielwerkstücks 14a' relativ zu dem Endeffektor 22' ebenso bestimmt werden, wenn eine Position und Ausrichtung einer flachen Oberfläche (z.B. horizontalen Oberfläche), die sich senkrecht zu einer Achse des Endeffektors 22' erstreckt, in Bezug auf den Endeffektor 22' bestimmt werden. In einer solchen Ausführungsform muss der zweite visuelle Sensor 38 entsprechend nicht ein dreidimensionaler visueller Sensor sein, sondern kann ein zweidimensionaler visueller Sensor wie beispielsweise eine zweidimensionale Kamera sein.
  • Gemäß der Aufnahmevorrichtung und des Verfahrens zum Aufnehmen eines Zielobjekts in der vorliegenden Erfindung werden eine Position und Ausrichtung des Zielobjekts relativ zu der Halteeinheit des Roboters von dem zweiten visuellen Sensor in einem Zustand vermessen, in dem das Zielobjekt von dem Roboter gehalten wird. Dies vermeidet einen Bedarf eine Position und Ausrichtung des Zielobjekts genau zu messen, bevor das Zielobjekt von dem Roboter gehalten wird. Eine präzise dreidimensionale Messung wird nur für das von dem Roboter gehaltene Zielobjekt ausgeführt. Dies vereinfacht den Messprozess verglichen zu dem Fall, in dem dreidimensionale Messungen für eine große Anzahl von Zielobjekten gleichzeitig ausgeführt werden, so dass die Messung präzise sein kann. Als ein Resultat kann die Präzision eines Prozesses zum Platzieren des Zielobjekts in einer Zielposition verbessert werden. Da kein Bedarf zum Verarbeiten einer großen Anzahl von dreidimensionalen Daten besteht, ist ferner weniger Zeit erforderlich, um die Berechnung zu vervollständigen, was in einer erhöhten Effektivität resultiert.

Claims (10)

  1. Aufnahmevorrichtung (10) zum Aufnehmen eines Zielobjekts (14a) mit einem Roboter (16) aus einer Mehrzahl von in einem Behälter (12) beliebig aufeinandergestapelten Objekten (14) und zum Platzieren des Zielobjekts (14a) mit einer vorbestimmten Ausrichtung an einem Zielort, wobei der Roboter (16) eine Halteeinheit (22) zum lösbaren Halten des Zielobjekts (14a) umfasst, wobei die Aufnahmevorrichtung (10) folgendes umfasst: einen ersten visuellen Sensor (28) zum Beschaffen von Informationen bezüglich einer Höhenverteilung der Mehrzahl von Objekten (14) in dem Behälter (12), einen ungefähre-Position-Beschaffungsteil (52) zum Beschaffen von Informationen bezüglich einer ungefähren Position des Zielobjekts (14a), das sich in einer höheren Position als umgebende Objekte (14) in dem Behälter (12) befindet, basierend auf den vom ersten visuellen Sensor (28) beschafften Informationen bezüglich einer Höhenverteilung; einen Aufnahmevorgangsteuerteil (54) zum Steuern des Roboters (16), um es der Halteeinheit (22) zu ermöglichen, das Zielobjekt (14a) zu halten, basierend auf den von dem ungefähre-Position-Beschaffungsteil (52) beschafften Informationen bezüglich einer ungefähren Position des Zielobjekts (14a); einen zweiten visuellen Sensor (38) zum Beschaffen von Informationen bezüglich einer Position und Ausrichtung des Zielobjekts (14a) relativ zu der Halteeinheit (22) durch Vermessen des Zielobjekts (14a), wenn das Zielobjekt (14a) von der Halteeinheit (22) gehalten wird; und einen Platzierungsvorgangsteuerteil (56) zum Steuern des Roboters (16), um das von der Halteeinheit (22) gehaltene Zielobjekt (14a) in eine vorbestimmte Position und Ausrichtung relativ zum Zielort zu bringen, basierend auf der von dem zweiten visuellen Sensor (38) beschafften Position und Ausrichtung des Zielobjekts (14a) relativ zur Halteeinheit (22).
  2. Aufnahmevorrichtung (10) gemäß Anspruch 1, wobei der zweite visuelle Sensor (38) eine zweidimensionale Kamera ist.
  3. Aufnahmevorrichtung (10) gemäß Anspruch 1, wobei der zweite visuelle Sensor (38) ein dreidimensionaler visueller Sensor ist.
  4. Aufnahmevorrichtung (10) gemäß einem der Ansprüche 1 bis 3, ferner umfassend: einen Halteeinheitinformationsspeicherteil (64) zum Speichern einer von dem zweiten visuellen Sensor (38) beschafften ersten Information, wobei die erste Information mit einem Zustand der Halteeinheit (22) assoziiert ist, in dem die Halteeinheit (22) das Zielobjekt (14a) nicht hält; und einen Relativpositions- und -ausrichtungsberechnungsteil (68) zum Berechnen der Position und Ausrichtung des Zielobjekts (14a) relativ zu der Halteeinheit (22), basierend auf der ersten Information und einer von dem zweiten visuellen Sensor (38) beschafften zweiten Information, wobei die zweite Information mit einem Zustand der Halteeinheit (22) assoziiert ist, in dem die Halteeinheit (22) das Zielobjekt (14a) hält.
  5. Verfahren zum Aufnehmen eines Zielobjekts (14a) mit einem Roboter (16) aus einer Mehrzahl von in einem Behälter (12) beliebig aufeinandergestapelten Objekten (14) und zum Platzieren des Zielobjekts (14a) in einer vorbestimmten Ausrichtung an einem Zielort, wobei der Roboter (16) eine Halteeinheit (22) zum lösbaren Halten des Zielobjekts (14a) umfasst, wobei das Verfahren folgendes umfasst: Beschaffen von Informationen bezüglich einer Höhenverteilung der Mehrzahl von Objekten (14) in dem Behälter (12) mit einem ersten visuellen Sensor (28); Beschaffen von Informationen bezüglich einer ungefähren Position des Zielobjekts (14a), das sich in einer höheren Position als umgebende Objekte (14) in dem Behälter (12) befindet, basierend auf den von dem ersten visuellen Sensor (28) beschafften Informationen bezüglich einer Höhenverteilung; Steuern des Roboters (16), um es der Halteeinheit (22) zu ermöglichen, das Zielobjekt (14a) zu halten, basierend auf den Informationen bezüglich einer ungefähren Position des Zielobjekts (14a); Beschaffen von Informationen bezüglich einer Position und Ausrichtung des Zielobjekts (14a) relativ zu der Halteeinheit (22) mit einem zweiten visuellen Sensor (38), durch Vermessen des Zielobjekts (14a) in einem Zustand, in dem das Zielobjekt (14a) von der Halteeinheit (22) gehalten ist; und Steuern des Roboters (16), um das von der Halteeinheit (22) gehaltene Zielobjekt (14a) in eine vorbestimmte Position und Ausrichtung relativ zu dem Zielort zu bringen, basierend auf den von dem zweiten visuellen Sensor (38) beschafften Informationen bezüglich einer Position und Ausrichtung des Zielobjekts (14a) relativ zu der Halteeinheit (22).
  6. Verfahren gemäß Anspruch 5, wobei der zweite visuelle Sensor (38) eine zweidimensionale Kamera ist.
  7. Verfahren gemäß Anspruch 5, wobei der zweite visuelle Sensor (38) ein dreidimensionaler visueller Sensor ist.
  8. Verfahren gemäß einem der Ansprüche 5 bis 7, ferner umfassend: wenn die Informationen bezüglich einer Position und Ausrichtung des Zielobjekts (14a) relativ zu der Halteeinheit (22) beschafft wurden: Auslesen einer ersten Information, die vorab von dem ersten visuellen Sensor (38) beschafft und gespeichert wurde, wobei die erste Information mit einem Zustand der Halteeinheit (22) assoziiert ist, in dem die Halteeinheit (22) das Zielobjekt (14a) nicht hält; und Berechnen der Position und Ausrichtung des Zielobjekts (14a) relativ zu der Halteeinheit (22), basierend auf der ersten Information und einer von dem zweiten visuellen Sensor (38) beschafften zweiten Information, wobei die zweite Information mit einem Zustand der Halteeinheit (22) assoziiert ist, in dem die Halteeinheit (22) das Zielobjekt (14a) hält.
  9. Aufnahmevorrichtung (10) gemäß einem der Ansprüche 1 bis 4 oder Verfahren zum Aufnehmen eines Zielobjekts (14a) gemäß einem der Ansprüche 5 bis 8, wobei die Informationen bezüglich einer ungefähren Position des Zielobjekts (14a) eine dreidimensionale Position eines Abschnitts des Zielobjekts (14a) umfasst, welcher an einer höheren Position ist als die anderen Abschnitte des Zielobjekts (14a).
  10. Aufnahmevorrichtung (10) gemäß einem der Ansprüche 1 bis 4 oder Verfahren zum Aufnehmen eines Zielobjekts (14a) gemäß einem der Ansprüche 5 bis 8, wobei die Informationen bezüglich einer ungefähren Position des Zielobjekts (14a) eine dreidimensionale Position eines ebenen Oberflächenabschnitts des Zielobjekts umfasst, welcher eine Querschnittsfläche innerhalb eines vorbestimmten Bereichs hat und an einer höheren Position ist als die anderen Abschnitte des Zielobjekts (14a).
DE102013018222.0A 2012-10-31 2013-10-30 Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts Active DE102013018222B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-240501 2012-10-31
JP2012240501A JP5642759B2 (ja) 2012-10-31 2012-10-31 物品取出装置及び物品取出方法

Publications (2)

Publication Number Publication Date
DE102013018222A1 DE102013018222A1 (de) 2014-04-30
DE102013018222B4 true DE102013018222B4 (de) 2019-01-03

Family

ID=50479807

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013018222.0A Active DE102013018222B4 (de) 2012-10-31 2013-10-30 Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts

Country Status (4)

Country Link
US (1) US9604363B2 (de)
JP (1) JP5642759B2 (de)
CN (1) CN103786153B (de)
DE (1) DE102013018222B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019106068B3 (de) 2019-03-11 2020-06-10 Hiwin Technologies Corp. System zur beseitigung von überlagerungen zufällig angeordneter werkstücke
DE102020212768A1 (de) 2020-10-09 2022-04-14 Ifc Intelligent Feeding Components Gmbh Schüttgut-Zuführsystem
US20220134384A1 (en) * 2020-11-05 2022-05-05 Beumer Corporation System and method for separating and singulating postal articles

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103687702B (zh) * 2011-06-29 2016-08-24 三菱电机株式会社 部件供给装置
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
US9272417B2 (en) * 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
US9802720B2 (en) 2014-10-03 2017-10-31 Frito-Lay North America, Inc. Apparatus and method for maintaining a pattern of non-rigid objects in a desired position and orientation
US11059185B2 (en) 2014-10-03 2021-07-13 Frito-Lay North America, Inc. Apparatus and method for transferring a pattern from a universal surface to an ultimate package
WO2016054561A1 (en) * 2014-10-03 2016-04-07 Frito-Lay North America, Inc. Apparatus and method for pattern creation
US9346169B2 (en) 2014-10-03 2016-05-24 Frito-Lay North America, Inc. Apparatus and method for universal, flexible pillow bag pattern creation
US9346170B2 (en) 2014-10-03 2016-05-24 Frito-Lay North America, Inc. Apparatus and method for universal, flexible pillow bag pattern creation
JP6140204B2 (ja) * 2015-02-06 2017-05-31 ファナック株式会社 3次元センサを備えた搬送ロボットシステム
EP3261809B1 (de) * 2015-02-25 2022-09-21 Dematic Corp. System und verfahren zur automatisierten bestellausführung
CN104786226A (zh) * 2015-03-26 2015-07-22 华南理工大学 抓取在线工件的机器人位姿及运动轨迹定位系统与方法
JP6117853B2 (ja) * 2015-05-13 2017-04-19 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
WO2017035016A1 (en) 2015-08-26 2017-03-02 Berkshire Grey Inc. Systems and methods for providing contact detection in an articulated arm
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
ES2845683T3 (es) 2015-09-01 2021-07-27 Berkshire Grey Inc Sistemas y métodos para proporcionar sistemas de control robótico dinámico
CA3178182A1 (en) 2015-09-08 2017-03-16 Berkshire Grey Operating Company, Inc. Systems and methods for providing high flow vacuum acquisition in automated systems
US10265872B2 (en) 2015-09-09 2019-04-23 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
WO2017044747A1 (en) 2015-09-11 2017-03-16 Berkshire Grey Inc. Robotic systems and methods for identifying and processing a variety of objects
CN113731862B (zh) * 2015-11-13 2024-04-12 伯克希尔格雷营业股份有限公司 用于提供各种物体的分拣的分拣系统和方法
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
EP4046761A1 (de) 2016-01-08 2022-08-24 Berkshire Grey Operating Company, Inc. Systeme und verfahren zur erfassung und bewegung von objekten
CA3014049C (en) 2016-02-08 2021-06-22 Thomas Wagner Systems and methods for providing processing of a variety of objects employing motion planning
US10994872B2 (en) * 2016-05-17 2021-05-04 Liebherr-Verzahntechnik Gmbh Order-picking cell
US11542104B2 (en) 2016-05-17 2023-01-03 Liebherr-Verzahntechnik Gmbh Order-picking system
DE102016007313B4 (de) * 2016-06-10 2020-06-18 rbc-Fördertechnik GmbH Vorrichtung und Verfahren zum Ausrichten und/oder Vereinzeln von Objekten
JP6831651B2 (ja) * 2016-07-04 2021-02-17 川崎重工業株式会社 ワークの袋詰め装置
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP6614075B2 (ja) * 2016-09-07 2019-12-04 株式会社ダイフク 物品積載設備
EP3532985B1 (de) 2016-10-28 2023-07-12 Beckman Coulter, Inc. System zur beurteilung eines substanzpräparats
EP3537867B1 (de) * 2016-11-08 2023-08-02 Dogtooth Technologies Limited Robotisches obstpflücksystem
CA3046214C (en) 2016-12-09 2022-01-04 Berkshire Grey, Inc. Systems and methods for processing objects provided in vehicles
JP6426690B2 (ja) * 2016-12-22 2018-11-21 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
JP6470321B2 (ja) * 2017-01-11 2019-02-13 ファナック株式会社 物品搬送装置
WO2018131108A1 (ja) * 2017-01-12 2018-07-19 株式会社Fuji 作業機および採取位置選択方法
JP6453922B2 (ja) 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
EP3366433B1 (de) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Verfahren zur steuerung eines roboters, verfahren zum lehren eines roboters und robotersystem
ES2957704T3 (es) 2017-03-06 2024-01-24 Berkshire Grey Operating Company Inc Sistemas y métodos para mover eficientemente una variedad de objetos
DE112017007311B4 (de) 2017-03-24 2021-09-16 Mitsubishi Electric Corporation Vorrichtung und Verfahren zum Erzeugen eines Roboterprogramms
JP6526100B2 (ja) 2017-04-28 2019-06-05 ファナック株式会社 物品取出システム
JP6487495B2 (ja) 2017-05-19 2019-03-20 ファナック株式会社 ワーク取出しシステム
EP4299260A3 (de) 2017-08-02 2024-04-10 Berkshire Grey Operating Company, Inc. Systeme und verfahren zur erfassung und bewegung von objekten mit komplexen aussenflächen
CN111052890B (zh) * 2017-09-15 2021-07-09 株式会社富士 元件供给系统
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP6662836B2 (ja) * 2017-11-24 2020-03-11 ファナック株式会社 収容領域又は治具にワークを配置するワーク配置システム
US11383936B1 (en) * 2017-12-06 2022-07-12 Alliance Manufacturing, Inc. Automatic height adjusting manifold
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
CN111699077B (zh) 2018-02-01 2024-01-23 Abb瑞士股份有限公司 用于机器人的基于视觉的操作
WO2019148441A1 (zh) * 2018-02-02 2019-08-08 深圳蓝胖子机器人有限公司 拣货方法、系统及其应用的获持与放置系统、机器人
GB2572199A (en) * 2018-03-22 2019-09-25 Elior Group Ware identification and handling apparatus
DE102018204508A1 (de) * 2018-03-23 2019-09-26 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboters
US10576526B2 (en) 2018-07-03 2020-03-03 Komatsu Industries Corporation Workpiece conveying system, and workpiece conveying method
CN110893999A (zh) * 2018-09-12 2020-03-20 泰科电子(上海)有限公司 图像采集系统和图像采集方法
EP3871172A1 (de) 2018-10-25 2021-09-01 Berkshire Grey, Inc. Systeme und verfahren zum lernen zur extrapolation optimaler zielrouting- und handhabungsparameter
JP7134073B2 (ja) * 2018-11-14 2022-09-09 株式会社ダイフク 物品積載設備
JP7134071B2 (ja) * 2018-11-14 2022-09-09 株式会社ダイフク 物品搬送設備
JP7107249B2 (ja) * 2019-02-26 2022-07-27 株式会社ダイフク 物品移載装置
JP7368135B2 (ja) 2019-07-31 2023-10-24 ファナック株式会社 複数の可動部を有する物品搬送システム
MX2022006131A (es) * 2019-12-05 2022-06-17 Magna Int Inc Metodo y configuracion para robotica sin vallas.
CN116133804A (zh) 2020-07-22 2023-05-16 伯克希尔格雷营业股份有限公司 用于使用被动折叠真空夹持器进行物体处理的系统和方法
WO2022020178A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by shroud inversion
US11633857B2 (en) * 2020-10-27 2023-04-25 Solomon Technology Corporation Method for picking up an object from a bin
US11866269B2 (en) 2021-10-06 2024-01-09 Berkshire Grey Operating Company, Inc. Dynamic processing of objects provided in elevated vehicles with evacuation systems and methods for receiving objects

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118562A (ja) 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd 摂取カロリー計算支援方法および装置並びにプログラム
DE10080012B4 (de) 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP4174342B2 (ja) 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
DE102009030461A1 (de) 2008-07-04 2010-01-07 Fanuc Ltd. Vorrichtung zum Aufnehmen von Objekten
DE102008052436A1 (de) 2008-10-21 2010-04-22 Daimler Ag Verfahren und Vorrichtung zum Vereinzeln von Bauteilen aus einem Behältnis
EP2364823A2 (de) 2010-03-11 2011-09-14 Kabushiki Kaisha Yaskawa Denki Robotersystem und Übertragungsverfahren
US20120113268A1 (en) * 2010-11-10 2012-05-10 Canon Kabushiki Kaisha Image generation apparatus, image generation method and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10080012B4 (de) 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP2004118562A (ja) 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd 摂取カロリー計算支援方法および装置並びにプログラム
JP4174342B2 (ja) 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
DE102009030461A1 (de) 2008-07-04 2010-01-07 Fanuc Ltd. Vorrichtung zum Aufnehmen von Objekten
DE102008052436A1 (de) 2008-10-21 2010-04-22 Daimler Ag Verfahren und Vorrichtung zum Vereinzeln von Bauteilen aus einem Behältnis
EP2364823A2 (de) 2010-03-11 2011-09-14 Kabushiki Kaisha Yaskawa Denki Robotersystem und Übertragungsverfahren
US20120113268A1 (en) * 2010-11-10 2012-05-10 Canon Kabushiki Kaisha Image generation apparatus, image generation method and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019106068B3 (de) 2019-03-11 2020-06-10 Hiwin Technologies Corp. System zur beseitigung von überlagerungen zufällig angeordneter werkstücke
DE102020212768A1 (de) 2020-10-09 2022-04-14 Ifc Intelligent Feeding Components Gmbh Schüttgut-Zuführsystem
DE102020212768B4 (de) 2020-10-09 2022-05-05 Ifc Intelligent Feeding Components Gmbh Schüttgut-Zuführsystem
US20220134384A1 (en) * 2020-11-05 2022-05-05 Beumer Corporation System and method for separating and singulating postal articles

Also Published As

Publication number Publication date
DE102013018222A1 (de) 2014-04-30
JP5642759B2 (ja) 2014-12-17
JP2014087913A (ja) 2014-05-15
US9604363B2 (en) 2017-03-28
CN103786153B (zh) 2015-10-14
CN103786153A (zh) 2014-05-14
US20140121836A1 (en) 2014-05-01

Similar Documents

Publication Publication Date Title
DE102013018222B4 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102009030461B4 (de) Vorrichtung zum Aufnehmen von Objekten
DE102014016072B4 (de) Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102013012068B4 (de) Vorrichtung und Verfahren zum Entnehmen von lose gelagerten Objekten durch einen Roboter
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102016115987A1 (de) Koordinatensystemeinstellungsverfahren, koordinatensystemeinstellungsvorrichtung und robotersystem mit koordinatensystemeinstellungsvorrichtung
DE102015208584A1 (de) Greifvorrichtung und Greifverfahren
CH698334B1 (de) Verfahren für die Entnahme und Montage von auf einem Wafertisch bereitgestellten Halbleiterchips auf einem Substrat.
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
DE102008042261B4 (de) Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102016120128B4 (de) Zwischenablagevorrichtung mit Werkstückausrichtungsfunktion
DE102008042260B4 (de) Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
EP3838806B1 (de) Vollautomatisches roboter-kommissioniersystem und kommissionierverfahren mit sensoranordnung zum vermessen eines entnommenen artikels im rahmen des anhebevorgangs
DE102016206980B4 (de) Verfahren zur Handhabung eines Körpers und Handhabungsvorrichtung
EP2461433A1 (de) Verfahren und Vorrichtung zum Bestücken eines Steckergehäuses
DE102010051935A1 (de) Verfahren zum Entnehmen eines Bauteils
DE102011084353B4 (de) Verfahren und Computerprogramm zum Einrichten eines Greifroboters, sowie Greifroboter
DE102019106068B3 (de) System zur beseitigung von überlagerungen zufällig angeordneter werkstücke
EP2497065B1 (de) Verfahren zur bestimmung der ausrichtung eines oberen teils eines stückgutstapels

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20141106

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final