AT507339A1 - Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten - Google Patents

Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten Download PDF

Info

Publication number
AT507339A1
AT507339A1 AT0150108A AT15012008A AT507339A1 AT 507339 A1 AT507339 A1 AT 507339A1 AT 0150108 A AT0150108 A AT 0150108A AT 15012008 A AT15012008 A AT 15012008A AT 507339 A1 AT507339 A1 AT 507339A1
Authority
AT
Austria
Prior art keywords
objects
recognition
image acquisition
handling device
object recognition
Prior art date
Application number
AT0150108A
Other languages
English (en)
Other versions
AT507339B1 (de
Original Assignee
Sticht Fertigungstech Stiwa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41449940&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=AT507339(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sticht Fertigungstech Stiwa filed Critical Sticht Fertigungstech Stiwa
Priority to AT0150108A priority Critical patent/AT507339B1/de
Priority to PCT/AT2009/000360 priority patent/WO2010034044A2/de
Publication of AT507339A1 publication Critical patent/AT507339A1/de
Application granted granted Critical
Publication of AT507339B1 publication Critical patent/AT507339B1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/917Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/02Devices for feeding articles or materials to conveyors
    • B65G47/04Devices for feeding articles or materials to conveyors for feeding articles
    • B65G47/12Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles
    • B65G47/14Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding
    • B65G47/1407Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding the articles being fed from a container, e.g. a bowl
    • B65G47/1442Devices for feeding articles or materials to conveyors for feeding articles from disorderly-arranged article piles or from loose assemblages of articles arranging or orientating the articles by mechanical or pneumatic means during feeding the articles being fed from a container, e.g. a bowl by means of movement of the bottom or a part of the wall of the container
    • B65G47/1471Movement in one direction, substantially outwards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40554Object recognition to track object on conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

-1 - ·· ·
Die Erfindung betrifft ein Verfahren zum sequentiellen Aufnehmen und/oder Bearbeiten von einzelnen Objekten aus einer durch eine Fördervorrichtung bewegten Objektmenge gemäß dem Oberbegriff der Ansprüche 1,13 und 21, weiters eine Anlage zum Zuführen und Handhaben und/oder Bearbeiten von Objekten gemäß dem Oberbegriff des Anspruchs 25.
Die Handhabung oder Bearbeitung von Objekten, bspw. Werkstücken mit Hilfe von programmierbaren Handhabungsvorrichtungen, wie etwa Industrierobotern wird seit langem bei der Herstellung von Produkten angewendet. Durch ständigen Kostendruck und technische Weiterentwicklungen gibt es jedoch laufend Bestrebungen, Maßnahmen zur flexiblen Automatisierung der Handhabung und Bearbeitung von Objekten auf weitere Einsatzbereiche auszudehnen.
Ein wichtiger Lösungsansatz in diesem Bereich ist die Ausstattung bzw. Verknüpfung von Handhabungsvorrichtungen mit optischen Sensoren in Form von Kameras und die Anwendung von Verfahren zur Bilderfassung, Bilderkennung, Objekterkennung und sonstigen Verfahren, die dem Gebiet maschinelles Sehen oder „Computer-Vision“ zuzurechnen sind.
Durch die Ausstattung bzw. Verknüpfung einer Handhabungsvorrichtung mit Sensoren kann zusätzlich oder alternativ zu festprogrammierten Arbeitsabläufen auch ein situationsbezogener Einsatz der Handhabungsvorrichtung erfolgen, wodurch die gewünschte Flexibilität erreicht wird. Der grundsätzliche Ablauf umfasst bei Verwendung von optischen Sensoren in Form von Kameras dabei die optische Erfassung einer Szene im Einflussbereich der Handhabungsvorrichtung, eine daran anschließende Bildverarbeitung, insbesondere Objekterkennung mit einer Analyse der Szene sowie basierend auf dem Ergebnis der Analyse eine Aktion bzw. eine Nichtaktion der Handhabungsvorrichtung. N2008/04000 -2- ♦· ι «· · ······· · • · ·· ···· • · · · · ···· · • · · · · · · ·♦ *·· ·· · Für Zwecke der Handhabung oder Bearbeitung von Objekten ist es dazu insbesondere erforderlich, deren Art, deren Position, deren Ausrichtung oder Orientierung, sowie Qualitätsmerkmale oder sonstige optisch erfassbare Attribute und Merkmale zu erfassen und zu verarbeiten, um daraus die von der Handhabungsvorrichtung vorzunehmenden Aktionen festzulegen. Die Erfassung und Verarbeitung der damit verbundenen umfangreichen Informationen erfolgt ausnahmslos in Recheneinheiten und Speichereinheiten umfassenden Steuer- und Regelvorrichtungen, die baulich, räumlich und logisch auf verschiedenste Weise aufgebaut sein können.
Ein wichtiges Anwendungsgebiet des erfindungsgemäßen Verfahrens bzw. der erfindungsgemäßen Anlage besteht im Ergreifen von bewegten Objekten und anschließenden Zuführen zu einem bestimmten Bearbeitungspunkt oder Übergabepunkt innerhalb einer Fertigungs-, Transport- oder Verpackungsanlage. Je nach dem Ordnungsgrad der bewegten Objektmenge bzw. der darin enthaltenen Objekte können vor dem eigentlichen Zuführvorgang noch Teilvorgänge zum Vereinzeln, Sortieren, Orientieren, Ausrichten, Prüfen usw. erforderlich sein. Für diese Teilaufgaben der Zuführtechnik werden in vielen Fällen nach wie vor häufig mechanisch wirkende Vorrichtungen eingesetzt, die jedoch zumeist speziell an die Art und die Eigenschaften der Objekte angepasst sein müssen, weshalb derartige Lösungen nur wenig flexibel sind und eine Abänderung der zu manipulierenden Objekte immer mit großem Aufwand für Rüsten, Umbau, Probeläufe und so weiter verbunden ist.
Ein klassisches Beispiel für eine derartige relativ „unflexible“ Bewerkstelligung der Teilaufgaben der Zuführtechnik besteht in der Verwendung von Vibrationsförderem, in deren Förderweg sogenannte Schikanen zur Vereinzelung, Sortierung, Ausrichtung, Prüfung usw. angeordnet sind. Die im Zuge einer Automatisierung geforderte hohe Zuverlässigkeit einer derartigen Zuführlösung ist dabei im hohen Grade von der Erfahrung und dem Geschick der mit der Fertigung oder Einstellung derartiger Schikanen betrauten Mitarbeiter abhängig. Ein großes Problem beim Einsatz derartiger Lösungen besteht auch darin, dass die erforderliche Feineinstellung in Probeläufen erst nach Vorliegen einer ausreichenden Anzahl von fertigen Probeobjekten möglich ist, d. h. diese Zuführvorrichtungen erst zu einem späten Zeitpunkt in der Produktentwicklungsphase hergestellt und vorbereitet werden können und etwa ein Serienanlauf dadurch empfindlich verzögert werden kann. Analog dazu ist bei einer Abänderung der zu manipulierenden Teile, etwa einer geringfügigen Änderung der Geometrie in vielen Fällen eine neuerliche Feineinstellung, mit den zuvor beschriebenen Nachteilen erforderlich. N2008/04000 3 3 • ·
·· • ···· · # · ·· • · · · · • ·· «·
Die vorteilhafte Flexibilität einer Handhabungsvorrichtung, die mit Fähigkeiten zum maschinellen Sehen ausgestattet ist, besteht nun darin, dass die dabei eingesetzte Bildverarbeitung, insbesondere Objekterkennung auf im Objekterkennungssystem enthaltenen Modellen der zu bearbeitenden bzw. handzuhabenden Objekte basiert und diese bspw. bei CAD-basierten bzw. durch CAD-Daten repräsentierten Objektmodellen dem Objekterkennungssystem bzw. dem Bildverarbeitungssystem quasi auf Knopfdruck eingelernt werden können. Mittels verschiedenster Verfahren werden dann die dem System zugeführten Bildinformationen mit den Objektmodellen verglichen und anhand dieses Vergleichs Informationen bzw. Aussagen über die reell vorhandenen Objekte abgeleitet, die zur Steuerung und Regelung der Handhabungs- oder Bearbeitungsvorgänge herangezogen werden. DE 103 51 669 A1 offenbart bspw. ein Verfahren zum Steuern eines Handhabungsgeräts, wie eines Mehrachs-Industrieroboters, wobei zunächst ein erwartetes Bilds eines Objekts in einem Arbeitsbereich des Handhabungsgerätes mit einem realen Bild des Objekts verglichen wird, anschließend eine Stellungsabweichung des Handhabungsgerätes bestimmt wird und dann Bewegungen zur Minimierung der Stellungsabweichung durchgeführt werden. Dieses Verfahren benutzt eine Vorrichtung zum Steuern eines Handhabungsgerät wie eines Mehrachs-Industrieroboters, mit einer Bildgebungseinrichtung zum Bereitstellen eines realen Bildes eines Objekts in Abhängigkeit von einer realen Stellung des Handhabungsgeräts, einer Bestimmungseinrichtung zum Bestimmen eines erwarteten Bildes des Objekts in Abhängigkeit von einer vorgegebenen Stellung des Handhabungsgeräts und einer Vergleichseinrichtung für das reale und das erwartete Bild zum Ermitteln einer Stellungsabweichung des Handhabungsgeräts, wobei ein Ausgangssignal der Vergleichseinrichtung zum Minimieren der Stellungsabweichung nutzbar ist.
In einem Ausführungsbeispiel ist eine Bildgebungseinrichtung in Form einer Kamera auf mittels eines Förderbands bewegte Objekte gerichtet und werden dadurch Bildinformationen erzeugt, die einer Bestimmungseinrichtung zugeführt werden. Das erwartete Bild eines Objekts wird dazu unter anderem bspw. aus CAD-Daten eines Objekts generiert, wodurch eine Vergleichsmöglichkeit gegeben ist, ohne dass reale Bilder eines Objekts aufgenommen werden müssten. Die Bildgebungseinrichtung in Form einer Kamera kann dabei sowohl am Handhabungsgerät, etwa am Ende der kinematischen Kette des Roboters oder aber auch unabhängig vom Handhabungsgerät etwa oberhalb des Förderbands angeordnet sein. Das in der DE-A1 offenbarte Verfahren ermöglicht es, die Roboterprogrammierung zu beschleunigen und bildet eine Möglichkeit der automatischen Positions- N2008/04000 -4- anpassung eines Handhabungsgeräts. Zu Fragen der Erhöhung der Leistung eines derartigen Systems, also der Anzahl der je Zeiteinheit bearbeitbaren oder handhabbaren Objekte bietet dieses Dokument keine konkreten Ansätze oder Anregungen.
Ein weiteres System basierend auf der Verknüpfung eines Roboters mit einem Bildverarbeitungssystem ist aus der WO 2007/046763 A1 bekannt. Diese beschreibt ein Verfahren und eine Anordnung zum Lokalisieren und Aufnehmen von Objekten etwa aus einem Behälter oder von einem Förderband. Der Bereich, in dem sich die aufzunehmenden Objekte befinden, wird mit einem Linien-Laserscanner bestrichen und vermessen, anschließend die erfassten Oberflächenpunkte der Objektmenge in eine virtuelle dreidimensionale O-berfläche umgerechnet. Diese dreidimensionale Oberfläche wird mit virtuellen Objekten, die etwa durch CAD-Daten repräsentiert sein können, verglichen, wodurch die einzelnen Objekte identifiziert und deren räumliche Lage und Orientierung ermittelt werden können. Vor dem Aufnehmen von einzelnen Objekten wird überprüft, ob der Roboter bzw. das Handhabungsgerät die ausgewählten Objekte auch ohne Kollisionen aufnehmen kann, wobei Kollisionen mit der virtuellen Oberfläche der Objektmenge als auch Kollisionen mit dem Behälter bzw. dem Förderer in Betracht gezogen werden.
Zur Erfassung der Oberfläche wird der Linien-Laserscanner vorzugsweise in einer linearen Bewegung über den Behälter den Förderer bewegt; alternativ dazu kann der Scanner auch am Roboterarm angeordnet sein und die Relativbewegung zwischen Scanner und Objektmenge durch den Roboterarm bewirkt werden. Durch den Vergleich des virtuellen Abbildes der realen Objektmengenoberfläche mit den virtuellen Objekten kann das Verfahren auch zur Feststellung von fehlerhaften Objekten genutzt werden. Die WO-A1 offenbart zwar das Aufnehmen von Objekten von einem Förderband, offenbart jedoch kein Verfahren zum Aufnehmen von Objekten von einem bewegten Förderband.
Die Aufgabe der Erfindung besteht darin, ein Verfahren zum sequentiellen Aufnehmen oder Bearbeiten von einzelnen Objekten mittels einer Handhabungsvorrichtung bereitzustellen, das erlaubt, insbesondere kontinuierlich, bewegte Objekte zu identifizieren und aufzunehmen bzw. zu bearbeiten und bei dem die erzielbare Leistung beim Handhaben oder Bearbeiten von Objekten hoch ist im Verhältnis zu den Hardwareanforderungen an eine derartige Anlage.
Die Aufgabe der Erfindung wird durch ein Verfahren mit den kennzeichnenden Merkmalen des Patentanspruchs 1 gelöst. N2008/04000 -5- ·· • ♦ · · · · • · · · ··· ·♦ • · ···# · · · t • · • · · · · · ·
Dadurch, dass ein vom Bilderfassungsverfahren fortlaufend generierter Bildinformationsstrom in Objektmengeninformationen, insbesondere Objektpunktkoordinaten und Bewegungsinformationen, umfassende Erkennungsabschnitte der Objektmenge unterteilt wird und die Identifizierung und Auswahl der mit der Handhabungsvorrichtung aufnehmbaren oder bearbeitbaren Objekte vom Objekterkennungssystem für einzelne Erkennungsabschnitte erfolgt, wird ein virtuelles Abbild der kontinuierlich erfassten realen Objektmengenoberfläche gewissermaßen in Teilmengen portioniert, die mit den aus dem Stand der Technik bekannten Verfahren zur Bildverarbeitung bzw. Objekterkennung verarbeitet werden können und relativ geringe Anforderungen an die Hardwareleistungsfähigkeit der Anlage stellen. Da der Bildinformationsstrom auf vielfältige Weise in Erkennungsabschnitte unterteilt werden kann, kann das Verfahren an verschiedenste Anforderungen bzw. Anwendungsfälle angepasst werden.
Da trotz fortschreitender Leistungssteigerung bei der Rechengeschwindigkeit von zur Bildverarbeitung eingesetzten Systemen die Rechenleistung aufgrund der enormen Datenmenge noch immer regelmäßig an ihre Grenzen stößt und dadurch die Handhabungsvorrichtung gewissermaßen auf die Berechnungsergebnisse der Bildverarbeitung bzw. der Objekterkennung warten muss, besteht durch die Aufteilung des Bildinformationsstroms in Erkennungsabschnitte die Möglichkeit, die auf die einzelnen Erkennungsabschnitte anzuwendenden Bilderkennungsverfahren parallel auf mehrere Rechenprozesse einer oder mehrerer Recheneinheiten aufzuteilen, die diese vom Umfang relativ „kleinen“ Rechenaufgaben in kurzer Zeit bewerkstelligen können, wodurch die Leistung der Handhabungsvorrichtung insgesamt ansteigt. Alternativ dazu lässt die Aufteilung des Bildinformationsstroms in Erkennungsabschnitte die Möglichkeit offen, die jeweils darin enthaltenen Bildinformationen vollständig auszuwerten oder aber auch die in einzelnen Objekterkennungsabschnitten enthaltenen Bildinformationen nur teilweise oder gar nicht auszuwerten. Dies kann etwa auf diese Weise erfolgen, dass falls in einem Erkennungsabschnitt nach einem vorwählbaren Zeitabschnitt eines planmäßig zur Verfügung stehenden Berechnungszeitraumes kein geeignetes Objekt identifiziert werden kann oder bereits eine vordefinierte Anzahl von Objekten identifiziert werden konnte, die weitere Bildverarbeitung für diesen Erkennungsabschnitt abgebrochen wird und die dadurch frei werdende Rechenleistung sofort für die Bildverarbeitung bzw. Objekterkennung in einem anderem Erkennungsabschnitt eingesetzt wird.
Die vom Bilderfassungssystem laufend generierten Bilddaten werden in einer Speichervorrichtung zwischengespeichert und sind, vorzugsweise ohne Datenverlust, zum Zwecke N2008/04000 -6- ·· · ·· · ♦· ·· ····»·· · t · • · ♦ · · · · ··« ·· • · · · · ·#·· · · · · • · ♦ · · ·«··· ·· ··· ·· · ·· ·· der Bilddatenaufbereitung, Unterteilung in Erkennungsabschnitte und nachfolgende Objekterkennung aus der Speichervorrichtung auslesbar.
Die Speichervorrichtung kann dabei insbesondere ähnlich einem sogenannten Ringbuffer eine begrenzte Anzahl von Speicherregistern für die einzelnen erfassten Bilddaten bereitstellen, wobei die Speicherkapazität durch die Speichergröße oder die Anzahl der in der Speichervorrichtung enthaltenen Speichermodule an die optische Auflösung des Bilderfassungssystems, die zeitliche Auflösung und die Rechengeschwindigkeit der Bilddatenverarbeitung so angepasst ist, dass durch die Speicherbegrenzung etwa nur Daten der Objektmenge verloren gehen können, die von Objekten stammen, die sich bereits außerhalb der räumlichen und/oder zeitlichen Reichweite der Handhabungsvorrichtung befinden, also von Objekten, die bei Fortschreiten der Objektmengenbewegung ohnehin nicht mehr von der Handhabungsvorrichtung erreicht werden können. Die Speichervorrichtung ist weiters so eingerichtet, dass das Schreiben von Bilddaten durch das Bilderfassungssystem und das Auslesen und evtl. Löschen von Bilddaten für das Objekterkennungssystem zu keinen Datenverlusten oder einer Störung der Datenintegrität führt. Dazu finden Lese- und Schreibvorgänge atomar statt.
Die Aufteilung des Bildinformationsstroms in Erkennungsabschnitte erfolgt dabei so, dass jedem Erkennungsabschnitt eine definierte Menge von Bilddatenspeicherinhalt und damit auch ein bestimmter Abschnitt der realen, bewegten Objektmengenoberfläche zuordenbar sind. Aus den erfassten Bilddaten bzw. Datenpaketen werden mit Raumkoordinaten und Weginformationen verknüpfte Punkte der Objektmengenoberfläche berechnet, und bilden zusammenhängende Punkte der Objektmengenoberfläche einen Erkennungsabschnitt.
Die Aufteilung in Erkennungsabschnitte mit den darin enthaltenen Bilddaten bzw. schon daraus berechneten identifizierten Punkten entspricht dadurch auch einer Aufteilung in Objektmengenoberflächenabschnitte.
Die Aufteilung der Erkennungsabschnitte wird im Objekterkennungssystem durchgeführt, wobei dieses als übergeordnetes System zu verstehen sein kann, das auch das Bilderfassungssystem mit der Kamera umfasst oder auch als ein über eine Schnittstelle dem Bilderfassungssystem nachgeordnetes System aufgefasst werden kann. Da Bilderfassungssystem und Objekterkennungssystem unmittelbar verknüpft sind, ist im Rahmen der Erfindung eine starre Grenzziehung zwischen diesen beiden Systemen nicht erforderlich.
Das Objekterkennungssystem wiederum ist Teil einer übergeordneten Steuervorrichtung, mit der die Gesamtanordnung gesteuert, geregelt und überwacht werden kann. N2008/04000 -7- -7- ·· ·· # ·· · ·♦♦··♦· · · · • · · · · · · ··· ·· • ♦ · · ♦ ♦··· · t · · • ♦ ♦♦♦♦···· ·· ♦·· ·· · ·· ··
Die Erkennung der Objekte kann dabei sowohl die Erkennung der Objekttype als auch die Erkennung von Lage und Orientierung der Objekte an der Fördervorrichtung umfassen.
Im einfachsten Fall umfasst die Objektmenge lediglich eine Objekttype, während für andere Anwendungen auch mehrere Objekte verschiedener Objekttypen in gleichbleibenden oder variablen Häufigkeitsanteilen die Objektmenge zusammensetzen können.
Die Objekterkennung und die darauf basierende Handhabung oder Bearbeitung von Objekten erfolgt dabei bei, insbesondere kontinuierlicher, Bewegung der Objektmenge, wobei natürlich Betriebszustände eintreten können, bei denen der Fördervorgang geplant oder ungeplant unterbrochen wird. Die Objekterkennung kann Stillstände oder Geschwindigkeitsveränderungen des Fördervorgangs berücksichtigen, da Bewegungsinformationen der Fördervorrichtung erfasst und eingerechnet werden können. Beispielsweise kann die Bilderfassung, insbesondere das Abspeichem und/oder Übertragen von gleichbleibenden Bildinformationen für die Weiterverarbeitung durch das Objekterkennungssystem bei Stillstand der Fördervorrichtung, also wenn keine Wegimpulse an die Steuervorrichtung übertragen werden, vorübergehend unterbrechen.
Wenn die Förderleistung der Fördervorrichtung verstellbar ist, ist es vorteilhaft, wenn die Anzahl pro Zeiteinheit mit der Objektmenge transportierter Objekte zumindest annähernd der Aufnahmeleistung der Handhabungsvorrichtung entsprechend eingestellt wird, insbesondere geringfügig höher als diese eingestellt werden kann.
Bei bestimmten Anwendungsfällen des Verfahrens kann es auch von Vorteil sein, wenn abhängig von vorgebbaren und im Objekterkennungssystem enthaltenen Entscheidungskriterien bei bestimmten Erkennungsabschnitten keine Identifizierung und Auswahl von aufnehmbaren Objekten erfolgt. Die Zuführleistung bzw. Bearbeitungsleistung des Systems wird dadurch nicht beeinträchtigt, sondern im Gegenteil positiv beeinflusst.
Wenn aufeinanderfolgende bzw. benachbarte Erkennungsabschnitte vom Objekterkennungssystem so begrenzt werden, dass sie einen gemeinsamen Überlappungsabschnitt aufweisen, ist sichergestellt, dass jeder vom Bilderfassungssystem erfasste Oberflächenpunkt der bewegten Objektmenge zumindest einem Erkennungsabschnitt zugeordnet werden kann und dadurch auch einer Objekterkennung zugeführt werden kann. Dadurch ist vermieden, dass an den Grenzen zwischen benachbarten bzw. aufeinanderfolgenden Erkennungsabschnitten Bildinformationen und dadurch auch Informationen über die Objektmenge verloren gehen. N2008/04000
Die Größe und/oder die Ausdehnung der Erkennungsabschnitte können dabei vorteilhaft vom Bilderfassungssystem oder vom Objekterkennungssystem variabel anpassbar sein, wodurch die Erkennungsabschnitte insbesondere an die Größe der zu identifizierenden und aufzunehmenden bzw. zu bearbeitenden Objekte angepasst werden können. So kann etwa bei kleinen Objektabmessungen ein kleiner Erkennungsabschnitt vorgegeben werden und bei größeren Objektabmessungen ein großer Erkennungsabschnitt, wodurch vermieden ist, dass ein zu klein gewählter Erkennungsabschnitt nicht alle erfassbaren Oberflächendaten eines Objekts enthält, und dadurch die Objekterkennung natürlich erschwert wäre. Die Erkennungsabschnitte entsprechen dabei jeweils einer bestimmten Menge an Bilddaten, auf die die Objekterkennung angewendet wird.
Obwohl eine mit einer Kamera aus einer Richtung oder mit mehreren Kameras aus verschiedenen Richtungen durchgeführte Bilderfassung der Objektmenge nur den für das verwendete Bilderfassungssystem sichtbaren Teil der Objektmengenoberfläche erfassen kann, also jeweils nur ein Teil der Oberfläche eines Objekts erfasst werden kann und die Objekterkennung auch trotz dieser unvollständigen Oberflächeninformationen eine Zuordnung zu virtuell vorhandenen Objekten ermöglichen können muss, ist es von Vorteil, wenn eine Größe der Erkennungsabschnitte zumindest einer Maximalabmessung eines zu identifizierenden Objekts entspricht, da in diesem Fall ein Matchen, also ein Vergleich eines Erkennungsabschnittes mit bekannten Soll-Geometrien auf möglichst vollständigen Objektinformationen basiert und sehr zuverlässige Ergebnisse der Objekterkennung erhalten werden.
Insbesondere kann dabei auch die Größe und/oder die Ausdehnung der Überlappungsabschnitte vom Objekterkennungssystem variabel anpassbar sein, bspw. kann bei einem Objekt mit kreisförmigen Umriss bekannter Dimension bereits bei einem nur teilweise erfassten Umriss eine sichere Aussage über die Position getroffen, während etwa bei einem Objekt mit rechteckigem Umriss keine gesicherte Aussage über die Position bzw. Ausrichtung getroffen werden kann, wenn etwa nur ein Teil einer Ecke des Objekts in einem Erkennungsabschnitt enthalten ist. Je größer der Überlappungsabschnitt zwischen zwei benachbarten Erkennungsabschnitten ist, umso höher wird die Wahrscheinlichkeit, dass auch Objekte, von denen Bildinformationen in zwei Erkennungsabschnitten enthalten sind, bei der Objekterkennung richtig identifiziert werden.
Wenn ein Überlappungsabschnitt so gewählt ist, dass diesem ein Teilabschnitt der Objektmengenoberfläche zugeordnet wird, der größer ist als eine Maximalabmessung der N2008/04000 -9- -9- ·· ·· · ·· · ·· ······· · ·· • · · · · · · ··· ·· • · · · · ···· · · · · • · ··· ····· ·· ··· ·· · ·· ··
Objekte, ist sichergestellt, dass alle von einem einzelnen Objekt erfassbaren Bildinformationen vollständig in zumindest einem Erkennungsabschnitt enthalten sind. Objekte, die vollständig in einem Überlappungsabschnitt enthalten sind, können dadurch in zwei verschiedenen Erkennungsabschnitten identifiziert werden, weshalb auch Maßnahmen erforderlich sein können, die sicherstellen, dass ein vollständig in einem Überlappungsabschnitt enthaltenes Objekt nicht als zwei Objekte angesehen werden, wobei dies bei zwei identischen an derselben Position lokalisierten Objekten durch Unterdrücken der doppelten Identifizierung vor oder bei der Auswahl der geeigneten Objekte durchgeführt werden kann.
Die auf die Objektmenge angewendete Bilderfassung basiert auf der Verwendung von Licht, wobei unter dem Begriff Licht in diesem Zusammenhang jede für eine berührungslose Erfassung der Oberfläche verwendbare elektromagnetische Strahlung verstanden werden kann und der Begriff Licht nicht auf das für Menschen sichtbare Licht eingeschränkt verstanden sein sollte.
Das Bilderfassungsverfahren ist dabei insbesondere ausgewählt aus einer Gruppe umfassend 2-D-Bilderfassung, 3-D-Bilderfassung, Stereo-Kamera-Erfassung, Strukturlicht-Erfassung, Laser-Scanner-Erfassungsverfahren, Laser-Laufzeitermittlungserfahren, Li-nien-Laser-Abtastung und dgl., wobei ein 3-D-Bilderfassungsverfahren vorteilhafterweise mit Tiefenwerten versehene Objektmengen-Oberflächen-Punktkoordinaten bereitstellt, die zusätzliche und verbesserte Methoden der Objekterkennung ermöglicht.
Vorzugsweise wird als Bilderfassungsverfahren ein Lichtschnittverfahren benutzt, bei dem eine Lichtquelle, etwa ein Linienlaser Licht in einer oder mehreren Beleuchtungsebenen auf die bewegte Objektmenge aussendet und eine auf die beleuchtete Objektmenge gerichtete Kamera zur Aufnahme des von der Objektmenge reflektierten Lichts vorgesehen ist, wobei die Erfassungsrichtung der Kamera zur Beleuchtungsebene einen Winkel einschließt. Die Oberfläche der Objektmenge wird mit diesem Verfahren in Form von Höhenschnittlinien erfasst, deren Höhe durch die seitliche Anordnung der Kamera erfasst werden kann bzw. daraus mittels trigonometrischen Beziehungen errechnet werden kann, wobei die Aneinanderreihung der Höhenschnittlinien durch die Bewegung der Objektmenge mittels der Fördervorrichtung bewirkt ist. Zusätzlich kann dieser Bewegung der Objektmenge auch eine Bewegung der Beleuchtungsebene überlagert sein, wie es etwa bei Verwendung eines Laserscanners der Fall ist. N2008/04000 -10- ·· • ·· • ·· • · ·· · • • • • • • · • · • • • ··· ·· • • · • ···» · · • • • · • · • • · · • • ·· ·♦· ·» • ·· ··
Ein weiteres vorteilhaftes Verfahren zur 3-D Bilderfassung der Objektmenge besteht in der Verwendung von laufzeitbasierenden Laser-Messsystemen, wie etwa ein Schwenkbewegungen ausführender 3D-Laserscanner oder mittels einer sogenannten Time-of-flight-Kamera (TOF). Derartige TOF - Laufzeitkameras können zusätzlich zu einem Grauwertbild auch die jeweilige Tiefeninformation zu einzelnen Pixeln erfassen und an die Bildverarbeitung bzw. Objekterkennung übergeben.
Da es leicht möglich ist, dass in einem Erkennungsabschnitt mehr als ein Objekt identifiziert wird, das gehandhabt bzw. bearbeitet werden kann, ist es von Vorteil, wenn anhand eines einzelnen Erkennungsabschnitts oder anhand mehrerer Erkennungsabschnitte eine Reihung von zumindest zwei, insbesondere mehreren identifizierten und aufnehmbaren bzw. bearbeitbaren Objekten erstellt wird, anhand der die zeitliche Abfolge der Handhabung bzw. Bearbeitung durch die Handhabungsvorrichtung festgelegt wird. Für die Reihung der Objekte können dabei verschiedenste Kriterien herangezogen werden, wobei ein besonders geeignetes Kriterium eine die den identifizierten Objekten jeweils zugeordnete Erkennungsgüte darstellt. Die Erkennungsgüte entspricht dabei etwa dem Grad der Übereinstimmung einer aus der Bildinformation berechneten Objektmengenoberfläche bzw. einem daraus extrahierten, identifizierten Objekt mit einem virtuellen Objekt in Form von CAD-Modell-Daten. Abweichungen zwischen optisch erfassten Oberflächen und virtuellen Soll-Oberflächen können natürlich aufgrund von optischen Abbildungsfehlern des Bilderfassungssystem, Bildrauschen, Berechnungsungenauigkeiten oder sonstigen Gründen auftreten, weshalb ein Objekterkennungssystem gewisse Toleranzen zwischen der berechneten Objektmengenoberfläche und den virtuellen Solloberflächen zulassen muss. Je geringer die Abweichungen zwischen innerhalb der gemessenen Objektmengenoberfläche identifizierten Objekten und den hinterlegten, virtuellen Objektmodellen sind, umso höher ist die Wahrscheinlichkeit, dass es sich auch tatsächlich um ein derartiges Objekt handelt.
Die Reihung der aufzunehmenden oder Objekte kann weiters auf einer den identifizierten Objekten jeweils zugeordneten Greifwahrscheinlichkeit basieren, bei der etwa die Sicherheit gegen unbeabsichtigtes Lösen von Greiforganen der Handhabungsvorrichtung einbezogen wird. Diese kann etwa durch die Anzahl von an einem konkreten Objekt wirksamen Vakuumsaugelementen oder eine rechnerisch mögliche Kontaktfläche zwischen einem konkreten Objekt und Greifzangen der Handhabungsvorrichtung bestimmt sein. Eine weitere Möglichkeit der Reihung kann auf einer den identifizierten Objekten zugeordneten N2008/04000 -11 - ·· · ·· · • · · ·· · ·· ··
Restverweildauer im Greifbereich der Handhabungsvorrichtung basieren, wobei Objekte, bei denen die Restverweildauer nahe der für die Handhabungsvorrichtung noch möglichen unteren Grenze liegt, vorrangig aufgenommen bzw. bearbeitet werden. Die Reihung der Objekte kann weiters auch anhand einer Kombination der vorgenannten Kriterien erfolgen.
Vor der Reihung und nachfolgenden Auswahl eines greifbaren Objekts wird von der Steuervorrichtung eine Überprüfung auf eine mögliche Kollision zwischen der Handhabungsvorrichtung und der Objektmenge und/oder der Fördervorrichtung durchgeführt, um nicht greifbare Objekte frühestmöglich aus den weiteren Berechnungen auszuscheiden und dadurch Rechenaufwand einzusparen.
Die Identifizierung und eine damit verknüpfte Lageerkennung der Objekte erfolgt im Objekterkennungssystem auf vorteilhafte Weise durch Vergleich von aus der Bilderfassung stammenden Objektmengeninformationen mit CAD-Modell-Daten von aufzunehmenden bzw. zu bearbeiteten Objekten. Dazu wird in der aus der Bildinformation berechneten Objektmengenoberfläche nach Teilflächen gesucht, die mit Oberflächenabschnitten der virtuellen Objektmodelle übereinstimmen oder zumindest annähernd übereinstimmen. Für dieses auch als „Matching“ bezeichnete Teilverfahren der Objekterkennung können verschiedene Rechenalgorithmen eingesetzt werden, auf welche jedoch an dieser Stelle nicht näher eingegangen wird.
Beispielsweise kann eine aus der erfassten Bildinformation berechnete Punktewolke als Basis für das „Matching-Verfahren“ dienen, indem ein durch Punkte repräsentiertes virtuelles Objektmodell durch Verschieben und/oder Drehen so in die optisch erfasste Objektmengenoberfläche eingepasst wird, bis die Summe der Abstandsquadrate ein Minimum ist. Dies ist nämlich dann der Fall, wenn das virtuelle Objektmodell mit der Objektmengenoberfläche zur Deckung gebracht werden kann. Dabei kann das Objekterkennungssystem den Vergleich der Bildinformationen auch mit den CAD-Modell-Daten von mehreren unterschiedlichen Objektarten, insbesondere in zeitlich parallel ablaufenden Auswertevorgängen, durchführen, wodurch der Zeitbedarf für die positive Erkennung eines Objekts drastisch reduziert werden kann, wenn die Objektmenge nicht nur aus einer Objekttype besteht. Diese parallel ablaufenden Erkennungsprozesse können insbesondere mehreren verschiedenen Recheneinheiten in Form von Prozessoren zugeordnet werden, etwa bei Verwendung von Dual-Core oder Quad-Core Prozessoren. N2008/04000 ·· · ·· · ·· ·· ······· · ·· • · · · · · · ··· ·· • # · · ······ ·· · ·· ♦ · · ♦ · · · · ·# ··· ·· · ·· ·· -12-
Die Zulässigkeit des erfindungsgemäßen Verfahrens kann erhöht werden, indem vor dem Aufnehmen bzw. Bearbeiten eines Objekts die mittels einer raumfesten Kamera ermittelte Position des Objekts mit einer anhand mit der Handhabungsvorrichtung verbundenen Kamera ermittelten Position des Objekts auf Abweichung verglichen wird. Dadurch werden zwei voneinander unabhängige Bilderfassungsverfahren bzw. auch Objekterkennungsverfahren auf jedes Objekt angewendet und durch diese Redundanz eine erhöhte Zuverlässigkeit bei der Ausführung des Verfahrens bewirkt.
Bei dieser Verfahrensvariante kann insbesondere die Bilderfassung durch die mit der Handhabungsvorrichtung verbundene Kamera zeitlich nach der Bilderfassung durch die raumfeste Kamera erfolgen, wodurch die zweite Bilderfassung gleichzeitig auch zur Überprüfung verwendet werden kann, ob sich ein identifiziertes Objekt zwischen der ersten Bilderfassung und der zweiten Bilderfassung in seiner Position und/oder Ausrichtung bzgl. dem Rest der Objektmenge verändert hat, also eine individuelle Bewegung ausgeführt hat, die der planmäßigen und vorausberechenbaren Bewegung durch die Fördervorrichtung überlagert ist. Dies kann etwa der Fall sein, wenn Objekte, die sich in einer instabilen oder labilen Lage befinden durch Vibrationen oder sonstige Einflüsse zwischen erster und zweiter Bilderfassung in ihrer Position und/oder Ausrichtung verändert werden, also etwa verrutschen oder kippen. Dieses Verfahren bietet eine hohe Zuverlässigkeit beim Einsatz der Handhabungsvorrichtung, da dadurch ungeplante oder nicht vorhersagbare Änderungen der Objektszene festgestellt und damit auch darauf reagiert werden kann. Diese zur Überprüfung der Objektlage durchgeführte zusätzliche Bilderfassung bzw. zusätzliche Objekterkennung kann mit wesentlich geringerem Rechenaufwand und in kürzerer Rechnungszeit erfolgen, wenn nur einige wenige erkannte Objektpunkte aus der ersten Ob-jekterkennung mittels der zweiten Objekterkennung überprüft werden.
Da die für die Identifizierung und Auswahl von Objekten erforderliche Rechenzeit auch von der Art und Komplexität der Objekte abhängig ist, ist es von Vorteil, wenn die pro Zeiteinheit durch die Fördervorrichtung bewegte Anzahl an Objekten variabel, insbesondere stufenlos einstellbar ist. Der Durchsatz an von der Fördereinrichtung bewegten Objekten kann dadurch so eingestellt werden, dass dieser zumindest annähernd der Durchsatzleistung der Kombination aus Objekterkennungssystem und Handhabungsvorrichtung entspricht, und nicht eine übermäßig große Zahl an Objekten nicht aufgenommen bzw. nicht bearbeitet werden kann und in einem Kreislauf wieder zurückgeführt werden muss oder die Handhabungsvorrichtung auf Objekte gewissermaßen warten muss, weil eine zu geringe Anzahl angefördert wird. N2008/04000 -13-
·· ··· ·· · ·· ··
Wie bereits zuvor erwähnt, kann die Leistung des Verfahrens angehoben werden, indem die Identifizierung und Auswahl der Objekte vom Objekterkennungssystem in mehreren Erkennungsabschnitten simultan durchgeführt wird, bspw. indem unterschiedliche Erkennungsabschnitte verschiedenen, gleichzeitig arbeitenden Recheneinheiten, etwa Prozessoren, zugeordnet werden.
Die Aufgabe der Erfindung wird weiters durch ein Verfahren mit dem Merkmalen Anspruchs 13 gelöst, wonach eine Ausgangsgröße des Objekterkennungssystems an die Fördervorrichtung oder eine dieser vorgeordneten Beschickvorrichtung rückgeführt wird und abhängig von der Ausgangsgröße der Ordnungsgrad der von der Fördervorrichtung bewegten Objektmenge durch Beeinflussung der Fördervorrichtung oder einer dieser vorgeordneten Beschickvorrichtung beeinflusst wird.
Dieses Verfahren kann insbesondere auch um die Verfahrensmaßnahmen nach einem der Patentansprüche 1 bis 12 ergänzt werden, wodurch die vorteilhaften Effekte kombiniert werden können.
Da der für die Objekterkennung erforderliche Rechenaufwand in hohem Maße durch den Ordnungsgrad der Objektmenge beeinflusst wird, können der Berechnungsaufwand und etwaige dadurch verursachte Wartezeiten für die Handhabungsvorrichtung reduziert werden, indem der Ordnungsgrad der Objektmenge im Bereich der Fördervorrichtung angehoben wird und dadurch die Erkennung der einzelnen Objekte in kürzerer Zeit mit geringerem Rechenaufwand erfolgen kann, wodurch die Durchsatzleistung der Gesamtanlage erhöht werden kann.
Der Ordnungsgrad der Objektmenge kann dabei insbesondere durch die Anzahl der pro Zeiteinheit geförderten Objekte und/oder den Vereinzelungsgrad der Objekte innerhalb der Objektmenge und/oder den Grad der geometrischen Ausrichtung der Objekte bzgl. der Fördervorrichtung gebildet sein. Da eine erhöhte Anzahl von pro Zeiteinheit geförderten Objekten die erforderliche Rechenleistung schnell an ihre Grenzen führen kann bzw. zu einer Überlastung des Objekterkennungssystems führen kann, kann eine Reduktion des Objektdurchsatzes trotzdem eine erhöhte Leistung bei der Aufnahme bzw. beim Bearbeiten von Objekten durch die Handhabungsvorrichtung bewirken. Ebenso kann die Objekterkennung leichter erfolgen, wenn die Objekte zueinander einen Abstand aufweisen, also von der Fördervorrichtung vereinzelt gefördert werden, da hier Berechnungsalgorithmen im Zusammenhang mit Überlappungen von Objekten entfallen können und die Objekterkennungsgeschwindigkeit dadurch gesteigert werden kann. Letztendlich kann N2008/04000 -14- ·· · ·· · ·· ·· • · ·· · · t · ♦ · • · · · ♦ · ♦ ··· ·· • · · · · ···· · · · · ·· · · · ····· ·· ··· ·♦ · ·· ♦· auch der Grad der Ausrichtung der Objekte bzgl. der Fördervorrichtung starken Einfluss auf die Objekterkennungsleistung haben, da Objekte, die in wenigen vordefinierten Orientierungen auf der Fördervorrichtung vorliegen mit wesentlich geringerem Berechnungsaufwand erkannt werden können, als vollständig unorientierte Objekte oder Werkstücke.
Im Gegenzug dazu kann es bei Objekten mit verhältnismäßig einfacher Geometrie und bei hohen vorhandenen Rechenleistungen von Vorteil sein, wenn die Objekte der Objektmenge der Fördervorrichtung in ungeordneter Lage zugeführt werden, wodurch Maßnahmen zur Erhaltung oder zur Erhöhung des Ordnungsgrads der Objekte der Objektmenge entfallen können. Für Objektmengen, die vor der Fördervorrichtung bereits einen gewissen Ordnungsgrad aufweisen ist es vorteilhaft, wenn diese der Fördervorrichtung in zumindest teilweise geordneter Lage zugeführt werden d.h., dass ein vor der Fördervorrichtung vorhandener Ordnungsgrad nicht unnötig vor der Fördervorrichtung gesenkt wird, bspw. indem magazinierte Objekte etwa in einen Schüttbehälter einer Beschickvorrichtung eingebracht werden. Dadurch reduzieren sich ebenfalls die erforderlichen Rechenleistungen für die Objekterkennung bzw. Maßnahmen zur Anhebung des Ordnungsgrads wie z.B. mechanisch wirkende Schikanen, Ausrichtstationen oder Vereinzelungsvorrichtungen.
Eine schnellere Objekterkennung kann ebenfalls dadurch bewirkt werden, dass die Objekte an einem von der Fördervorrichtung bewegten oder durch die Fördervorrichtung selbst gebildeten Objektträger angeordnet sind, auf dem sie einen höheren Ordnungsgrad als etwa in ungeordneter Lage auf einem Förderband mit glatter, ebener Oberfläche aufweisen.
Dazu kann der Objektträger vorteilhaft regelmäßig, insbesondere rasterartig, angeordnete Haltemittel oder fachartige Aufnahmemittel für die Objekte aufweisen. Durch die regelmäßige, insbesondere rasterartige Anordnung der einzelnen Objekte kann die Objekterkennung deutlich beschleunigt werden, da auf diese Weise wie bereits zuvor beschrieben, etwa aufwendige Berechnungsalgorithmen für die Erkennung von sich überlappenden Objekten entfallen können.
Eine Möglichkeit, dass die Fördervorrichtung selbst als Objektträger zur Erhöhung des Ordnungsgrades wirkt, besteht beispielsweise darin, zur Bewegung der Objektmenge ein endlos umlaufendes Förderband zu verwenden, dessen Oberfläche Mittel zur Stabilisierung der Objektlage und Objektposition bezüglich des Förderbands aufweist, also z.B. N2008/04000 -15- • · ♦ ·· ·· -15- • · ♦ ·· ·· • · ♦ ·
·· ·♦ ·* ♦ fachartige Unterteilungen, die durch von der Förderbandoberfläche aufragende Erhöhungen oder auf der Förderbandoberfläche angeordnete Vertiefungen gebildet werden, etwa in Form von Stegen, Noppen, Nuten, schalenförmigen Ausnehmungen usw.. Dadurch können Objekte die etwa kreiszylindrische oder kugelige Form aufweisen während ihrer Bewegung stabilisiert werden.
Die Haltemittel können dabei, insbesondere aus einer Gruppe umfassend zumindest Magnetelemente, Vakuumelemente, adhäsiv wirkende Haftelemente, Elektrostatikelemente, Federklemmelemente und so weiter gewählt sein. Die verschiedenen Haltemittel werden dabei abhängig von den Objekteigenschaften passend ausgewählt; so kommen Magnetelemente als Haltemittel bspw. für ferromagnetische Objekte bzw. Werkstücke in Frage.
Die Haltemittel können weiters so ausgebildet sein, dass von einem Haltemittel gleichzeitig mehrere Objekte gehalten werden, vorzugsweise jedoch in definierter Ausrichtung, bspw. etwa in gestapelter Form.
Um das Aufnehmen von Objekten von einem Objektträger zu erleichtern, etwa bei einer Handhabungsvorrichtung mit einem Zangen- oder Sauggreifer, ist es vorteilhaft, wenn die Haltemittel mit der Oberseite des Objektträgers bündig angeordnet sind oder gegenüber an dessen Oberseite örtlich vorragen.
Die Aufgabe der Erfindung wird weiters gelöst durch ein Verfahren mit den Merkmalen des Patentanspruchs 21, wonach die Objektmenge in einem zeitlichen Abstand zumindest ein zweites Mal einem Bilderfassungsverfahren und einem Objekterkennungsverfahren unterworfen wird und bei einem anhand der ersten Objekterkennung identifizierten und ausgewählten Objekt bestimmte anhand der zweiten Bilderfassung festgestellte Objektmerkmale, insbesondere Objektpunktkoordinaten, auf Übereinstimmung mit Objektmerkmalen aus der ersten Objekterkennung überprüft werden.
Dieses Verfahren kann insbesondere auch um die Verfahrensmaßnahmen nach einem der Patentansprüche 1 bis 19 ergänzt werden, wodurch die vorteilhaften Effekte kombiniert werden können.
Die Zuverlässigkeit des Verfahrens zum Aufnehmen und Bearbeiten von Objekten durch eine Handhabungsvorrichtung wird dadurch wesentlich erhöht, da die Redundanz der Objekterkennung zuverlässigere Daten ergibt. N2008/04000 -16-
Insbesondere bei Objekten, die aufgrund ihrer Eigenschaften eine relativ instabile Lage bzgl. der Fördervorrichtung aufweisen, die also etwa durch Vibrationen ihre Position und/oder Ausrichtung verändern können oder die durch die Handhabung oder durch die Bearbeitung benachbarter Objekte leicht beeinflusst werden können, ist es ein großer Vorteil, wenn unmittelbar oder zeitnah vor dem eigentlichen Aufnahme- oder Bearbeitungsvorgang eine nochmalige Kontrolle der Position und Ausrichtung erfolgt.
Die Erfindung bezieht sich weiters auf eine Anlage zum Zuführen und Handhaben von Objekten mit den Merkmalen des Patentanspruchs 25, wonach die Anlage zur Ausführung eines der vorbeschriebenen Verfahren ausgebildet ist.
Die beschriebenen Verfahren bzw. die zu deren Ausführung geeignete Anlage können insbesondere innerhalb einer Fertigungs-, Transport- oder Verpackungsanlage zum Einsatz kommen.
Die erfindungsgemäßen Verfahren sowie eine zu deren Ausführung geeignete Anlage werden im nachfolgenden anhand der in den Zeichnungen dargestellten Ausführungsbeispiele näher erläutert.
Es zeigen jeweils in stark schematisch vereinfachter Darstellung:
Fig. 1 ein Schema einer erfindungsgemäßen Anlage zum Handhaben und/oder Bearbeiten von Objekten;
Fig. 2 eine erfindungsgemäße Anlage zum Handhaben von Objekten mit einem skizzierten erfindungsgemäßen Verfahrensablauf;
Fig. 3 eine Anlage zum Handhaben von Objekten mit einer Skizze zu einer Variante des erfindungsgemäßen Verfahrens mit zwei zeitlich versetzt durchgeführten Objekterkennungsverfahren;
Fig. 4 ein Beispiel für eine Objektmenge mit niedrigen Ordnungsgrad;
Fig. 5 ein Beispiel für eine an einem Objektträger angeordnete Objektmenge;
Fig. 6 eine Draufsicht auf einen Objektträger mit einer Objektmenge mittleren Ordnungsgrades; N2008/04000 -17- -17-
• ·· ♦· • · · · • · ♦·· ♦· ···· ♦ · ♦ · • ♦ · · · • ·♦ ··
Fig. 7 eine Draufsicht auf eine weitere Ausführungsform eines Objektträgers mit einer Objektmenge mit hohen Ordnungsgrad;
Fig. 8 eine Anlage zum Handhaben von Objekten mit einer Rückführung eines Ergebnisses oder einer Ausgangsgröße der Objekterkennung an die Fördervorrichtung.
Einführend sei festgehalten, dass in den unterschiedlich beschriebenen Ausführungsformen gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen versehen werden, wobei die in der gesamten Beschreibung enthaltenen Offenbarungen sinngemäß auf gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen übertragen werden können. Auch sind die in der Beschreibung gewählten Lageangaben, wie z.B. oben, unten, seitlich usw. auf die unmittelbar beschriebene sowie dargestellte Figur bezogen und sind bei einer Lageänderung sinngemäß auf die neue Lage zu übertragen. Weiters können auch Einzelmerkmale oder Merkmalskombinationen aus den gezeigten und beschriebenen unterschiedlichen Ausführungsbeispielen für sich eigenständige, erfinderische oder erfindungsgemäße Lösungen darstellen. Sämtliche Angaben zu Wertebereichen in gegenständlicher Beschreibung sind so zu verstehen, dass diese beliebige und alle Teilbereiche daraus mitumfassen, z.B. ist die Angabe 1 bis 10 so zu verstehen, dass sämtliche Teilbereiche, ausgehend von der unteren Grenze 1 und der oberen Grenze 10 mitumfasst sind, d.h. sämtliche Teilbereich beginnen mit einer unteren Grenze von 1 oder größer und enden bei einer oberen Grenze von 10 oder weniger, z.B. 1 bis 1,7, oder 3,2 bis 8,1 oder 5,5 bis 10.
Fig. 1 zeigt Teile einer Anlage 1 zum Bearbeiten, Fertigen, Transportieren oder Verpacken von Objekten 2, die mittels einer Fördereinrichtung 3, hier in Form eines Förderbandes 4 in den Arbeitsraum einer Handhabungsvorrichtung 5 befördert werden und die an den Objekten 2 einen Arbeitsschritt der in Folge der Einfachheit halber „Handhabung“ genannt wird, ausführt. Die Handhabungsvorrichtung 5 ist im dargestellten Ausführungsbeispiel durch einen Roboter 6 gebildet, der gelenkig verbundene Greifarme und an deren Ende einen auf die Objekte 2 einwirkenden Endeffektor 7 in Form einer Greifzange oder, wie in Fig. 1 dargestellt, einen Vakuumgreifer 8 aufweist.
Die Steuerung der Anlage 1 erfolgt durch eine mit strichlierten Linien angedeutete Steuervorrichtung 9, die insbesondere als speicherprogrammierbare Steuerung oder als Prozessleitsystem ausgeführt ist. Die Steuervorrichtung 9 umfasst dabei Eingabeeinheiten N2008/04000 -18- -18- ·· • · · ··· ·· • · · · • · · β ·· ·· ·· · ·· · • · ·· · · · • · · · · · · • · · · · ···· ·· ··· ·· zur Erfassung von Sensorsignalen oder Signalen von Eingabegeräten, zumindest eine Verarbeitungseinheit umfassend eine Recheneinheit und ein Speichersystem sowie Ausgabeeinheiten zur Signalausgabe und zur Ansteuerung der Komponenten der Anlage 1.
Im dargestellten Ausführungsbeispiel besteht die Handhabung der Objekte 2 in einem Aufnehmen von der Fördereinrichtung 3 durch die Handhabungsvorrichtung 5 und ein transferieren an eine zweite Fördervorrichtung 10, an der die Objekte 2 von der Handhabungsvorrichtung 5 beispielhaft mit weiteren Objekten 11 zusammengesetzt werden und von der zweiten Fördervorrichtung 10 abtransportiert werden. Die weiteren Objekte 11 können insbesondere auch Verpackungsmittel sein, denen die Objekte 2 zugeordnet werden. Die Anlage 1 kann in diesem Fall auch als Verpackungsanlage dienen, mit denen verschiedenste Objekte 2 flexibel ohne aufwendige Programmierungsarbeiten verpackt werden können.
Die Objekte 2 auf der Fördereinrichtung 3 bilden zusammen eine Objektmenge 12, die durch die Fördervorrichtung 3 in Förderrichtung 13 in den Arbeitsraum bzw. einen Greifbereich der Handhabungsvorrichtung 5 bewegt wird. Damit die Handhabungsvorrichtung 5 einzelne Objekte 2 der bewegten Objektmenge 12 aufnehmen bzw. bearbeiten kann, obwohl deren Position auf der Fördervorrichtung 3 variabel und nicht vordefiniert ist, umfasst die Anlage 1 ein Sensorsystem 14 - in Fig. 1 in strichpunktierten Linien angedeutet - sowie ein Objekterkennungssystem 15, die zusammen das Lokalisieren und Erkennen von aufnehmbaren Objekten 2 aus der Objektmenge 12 ermöglichen. Sensorsystem 14 und Objekterkennungssystem 15 sind Bestandteil der Steuervorrichtung 9 und können als eigenständige Systeme, jedoch auch als räumlich zusammengehörige Einheit ausgeführt sein.
Das Sensorsystem 14 umfasst ein Bilderfassungssystem 16 mit einer Kamera 17, die auf die bewegte Objektmenge 12 auf der Fördervorrichtung 3 gerichtet ist und kontinuierlich Bildaufnahmen der bewegten Objektmenge 12 durchführt. Die Bilderfassungsrate der Kamera 17 bewegt sich dabei vorzugsweise in einem Bereich von 20 bis 15.000 Bildern pro Sekunde, wobei die Bilderfassungsrate insbesondere an die Bewegungsgeschwindigkeit der Objektmenge 12 angepasst ist.
Die von der Kamera 17 erfassten Bilder der Objektmenge 12 werden im Bilderfassungssystem 16 abgespeichert und dem Objekterkennungssystem 15 zur Auswertung bereitgestellt. Zum Zweck der Bilderfassung ist weiters eine Lichtquelle 18 vorgesehen, mit der die Objektmenge 12 im Aufnahmebereich der Kamera 17 beleuchtet wird. Die Lichtquelle 18 N2008/04000 -19- ·· · ·· · ·· ·· ······· · · · • · · · · · · ··· ·· • · · · · ···· · · · · ·· ··· ····· ·· ··· ·· · ·· ·· garantiert, dass die Bilderfassung auch bei wechselnden Umgebungslichtbedingungen mit gleich bleibender Qualität erfolgt. Das Bilderfassungssystem 16 kann insbesondere zur Erfassung der Objektmenge 12 mittels eines so genannten Lichtschnittverfahrens ausgebildet sein, bei dem die Lichtquelle 18 Licht in einer Beleuchtungsebene 19 auf die bewegte Objektmenge 12 aussendet und mit der Kamera 17 die sich ergebende Schnittlinie zwischen Beleuchtungsebene 19 und der Oberfläche der Objektmenge 12 aufgenommen wird. Die Erfassungsrichtung 20 der Kamera 17 ist dazu um einen Winkel 21 gegen die Beleuchtungsebene 19 geneigt und wird dadurch die Oberfläche der Objektmenge 12 in Form von Höhenschnittlinien erfasst.
Aus der Bewegung der Objektmenge 12 und durch die Bilderfassungsrate der Kamera 17 ergibt sich eine Abfolge von Höhenschnittlinien, die ein Abbild der Oberfläche der Objektmenge 12 darstellen und diese repräsentieren können. Als Lichtquelle 18 ist für dieses Lichtschnittverfahren insbesondere ein Linienlaser 22 von Vorteil, der eine scharf begrenzte Beleuchtungsebene 19 mit hoher Leuchtintensität liefern kann. Die Kamera 17 zur Aufnahme der durch die bewegte Objektmenge 12 gebildeten Szene ist vorzugsweise durch eine CCD - Kamera mit einer Auflösung von zumindest 1024x512 Pixel gebildet. Der Winkel 21 zwischen Beleuchtungsebene 19 und Erfassungsrichtung 20 der Kamera 17 beträgt vorzugsweise zwischen 5° und 75° Winkelgraden.
Zusätzlich zu den mittels des Bilderfassungssystems 16 erfassten Informationen über die bewegte Objektmenge 12 kann die Anlage 1 bzw. deren Steuervorrichtung 9 ein Wegmesssystem 23 umfassen, wodurch die mittels der Kamera 17 aufgenommene Bildinformation der bewegten Objektmenge 12 mit Weg- und/oder Geschwindigkeitsinformationen über die Objektmenge 12 verknüpft werden kann. Das Wegmesssystem 23 umfasst dazu einen Wegsensor 24 - hier in Form eines an der Fördervorrichtung 3 angeordneten Drehgebers 25 - mit dem die Bewegung der Fördermenge 12 erfasst wird. Durch diese Verwendung eines eigenen Wegmesssystems 23 kann der im Zeitraum zwischen dem Zeitpunkt der Bilderfassung und dem vorausberechneten Zeitpunkt der Aufnahme eines Objekts 2 mittels der Handhabungsvorrichtung 5 zurückgelegte Weg und damit auch die exakte Position eines Objekts 2 berechnet bzw. vorhergesagt werden.
Die Bewegung der Objektmenge 12 bzw. der darin enthaltenen Objekte 2 nach dem Zeitpunkt der Bilderfassung ließe sich prinzipiell auch aufgrund der Bildinformationen und daraus berechneter Bewegungsgeschwindigkeit Vorhersagen, durch das zusätzliche Wegmesssystem 23 ergibt sich jedoch eine ungleich höhere Genauigkeit bei der Lokali- N2008/04000 -20- ·· · ·· ·· • · · · · · • · · · ··· ·· • · ···· · » · · ·· · ·· ♦· sierung bzw. Vorhersage der Position der aufzunehmenden bzw. zu bearbeitenden Objekte 2, indem vom Antrieb der Fördervorrichtung 3 herrührende Geschwindigkeitsschwankungen der bewegten Objektmenge 12 miteingerechnet werden können. Bei der Verwendung eines Lichtschnittverfahrens ist diese zusätzliche Verknüpfung mit Weg- bzw. Geschwindigkeitsdaten zwingend erforderlich, da eine Geschwindigkeitsveränderung der Fördervorrichtung 3 anhand der Höhenschnittlinien alleine nicht mit Sicherheit festgestellt werden kann.
Der Wegsensor 24 kann auch in einem Antriebssystem 26 für die Fördervorrichtung 3 integriert sein, evtl, kann die Weg- bzw. Bewegungsinformation der Fördervorrichtung 3 auch direkt aus der Komponentensteuerung des Antriebsystems 26 ausgelesen werden.
Die Verknüpfung der Bildinformationen mit den Weg- bzw. Bewegungsinformationen des Wegmesssystems 23 ist in Fig. 1 durch einen Knotenpunkt 27 angedeutet.
Die vom Sensorsystem 14 erfassten Informationen über die von der Fördervorrichtung 3 bewegte Objektmenge 12 werden im Objekterkennungssystem 15 unter Anwendung von Objekterkennungsalgorithmen ausgewertet, wobei der vom Bilderfassungssystem 15 bereitgestellte Bildinformationsstrom in Erkennungsabschnitte 28 unterteilt wird, die den konkreten Abschnitten der Objektmenge 12 zuordenbar sind.
Die in den Erkennungsabschnitten 28 enthaltenen Objektmengeninformationen umfassen insbesondere Objektpunktkoordinaten, sowie Bewegungsinformationen, wobei die Objektpunktkoordinaten Teile der optisch erfassten Oberfläche der Objektmenge 12 darstellen. In Fig. 1 sind die Erkennungsabschnitte 28 als rechteckige Teilabschnitte innerhalb des Objekterkennungssystems 15 dargestellt. Auf die einzelnen Erkennungsabschnitte 28 wird vom Objekterkennungssystem 15 jeweils ein Objekterkennungsverfahren zur Identifizierung und Auswahl der mit der Handhabungsvorrichtung 5 aufnehmbaren und/oder bearbeitbaren Objekte 2 angewendet.
Die in den jeweiligen Erkennungsabschnitten 28 enthaltenen Objektmengeninformationen werden im Objekterkennungssystem 15 in der Weise analysiert, dass etwa in der durch Objektpunktkoordinaten repräsentierten Objektmengenoberfläche nach Übereinstimmungen mit dem Objekterkennungssystem 15 zugeführten Modellen der aufzunehmenden bzw. zu bearbeitenden Objekten 2 gesucht wird und anschließend die identifizierten Objekte 2, die von der Handhabungsvorrichtung 5 aufgenommen oder bearbeitet werden sollten, ausgewählt werden. N2008/04000
-21 - ·· · ·· ·· • · · · · · • · · · ··· ·· • ······ · · · • · · · · · · • ·· · ·· ··
Auf die Kriterien dieses Auswahlverfahrens wird in Folge noch näher eingegangen.
Die vom Objekterkennungssystem 15 identifizierten und ausgewählten Objekte 2 bzw. die diese repräsentierenden Informationen werden in Folge von der Steuervorrichtung 9 in ausführbare Befehle für die Komponenten der Anlage 1 umgewandelt. Dies ist in Fig. 1 beispielhaft derart dargestellt, dass vom Objekterkennungssystem 15 ausgehende Objektinformationen einzelnen Komponentensteuerungen 29, 30 und 31 für die Fördervorrichtung 3, die Handhabungsvorrichtung 5 und die zweite Fördervorrichtung 10 weitergeleitet werden und diese die erforderlichen Aktionen zum Aufnehmen und/oder Bearbeiten der Objekte 2 ausführen.
Die im Objekterkennungssystem 15 enthaltene Modellierung der aufzunehmenden Objekte 2 ist in Fig. 1 durch einen Modellspeicher 32 dargestellt, der etwa Objektinformationen in Form von CAD - Daten eines CAD - Systems 33 enthält. Die bei Objekten 2 häufig ohnedies vorliegenden CAD-Modell-Daten 34 können somit im Modellspeicher 32 des Objekterkennungssystems 15 hinterlegt werden und unmittelbar für die Identifizierung, Lokalisierung und Auswahl der aufzunehmenden Objekte 2 verwendet werden.
Wie in Fig. 1 weiters durch strichlierte Linien angedeutet, können die Kamera 17 sowie die Lichtquelle 18 als räumlich zusammengehörige Kameraeinheit 35 ausgeführt sein, die in einem kompakten Gehäuse alle erforderlichen Komponenten enthält.
Fig. 2 zeigt anhand eines ebenfalls stark vereinfachten Schemas der Anlage 1 das erfindungsgemäße Verfahren zum Aufnehmen und/oder Bearbeiten von bewegten Objekten 2 von einer Fördervorrichtung 3 mittels einer Handhabungsvorrichtung 5. Fig. 2 zeigt als strichliert dargestellte Blöcke das Sensorsystem 14, das hier durch das Bilderfassungssystem 16 gebildet ist, mit dem das Bilderfassungsverfahren ausgeführt wird und weiters das Objekterkennungssystem 15, mit dem das Objekterkennungsverfahren zur Identifizierung und Auswahl mit der Handhabungsvorrichtung 5 aufnehmbaren und/oder bearbeitbaren Objekte 2 ausgeführt wird.
Die auf der Fördervorrichtung 3 bewegte Objektmenge 12 umfasst eine variable Anzahl von Objekten 2, die identisch sein können, also einer Objekttype angehören oder die auch unterschiedlich sein können, also mehreren Objekttypen angehören können. Mit der Kamera 17 des Bilderfassungssystems 16, die auf die bewegte Objektmenge 12 gerichtet ist, werden optisch erfassbare Objektmengeninformationen als Bildinformationsstrom 36 vom Bilderfassungssystem 16 erfasst und für die weitere Bearbeitung durch das Objekt- N2008/04000 22 ·· • · • · ·· • · ·· • · ·' · • · ··· ·· • · · • · · · • · ···· · • · I ·
·· • · • · ·· erkennungssystem 15 in einer Bildspeicheranordnung 37 zwischengespeichert. Die Speicherstruktur des Bilderspeichers 37 ist in Fig. 2 beispielhaft als Ringbuffer 38 angedeutet, in dem die einzelnen Datenpakete 39 des Bildinformationsstroms 36 abgelegt werden. Die Fig. 2 zeigt der Einfachheit halber eine geringe Anzahl von Datenpaketen 39, wobei eine tatsächlich ausgeführte Anlage 1 selbstverständlich eine ungleich größere Anzahl an Bilddaten verarbeitet.
Die von der Fördervorrichtung 3 an der Kamera 17 des Bilderfassungssystems 16 vorbeibewegte Objektmenge 12 ergibt einen kontinuierlichen Bildinformationsstrom 36 in Form von Datenpaketen 39, die in der Bildspeicheranordnung 37 abgespeichert werden. Aus der Bildspeicheranordnung 37 wird zur Durchführung des Objekterkennungsverfahrens eine zusammengehörige Gruppe von Datenpaketen 39 ausgelesen und wird auf diese Teilmenge der Bildinformation vom Objekterkennungssystem 15 ein Objekterkennungsverfahren angewendet. Diese Gruppen von Datenpaketen 39 entsprechen den bereits anhand von Fig. 1 beschriebenen Erkennungsabschnitten 28 und enthalten die vom Bilderfassungssystem 16 erfassten Objektmengeninformationen, insbesondere in Form von Objektpunktkoordinaten und gegebenenfalls auch Bewegungsinformationen. Vor der Ausführung des Objekterkennungsverfahrens steilen diese Objektpunktkoordinaten und Bewegungsinformationen Informationen Uber die optisch erfassbare Oberfläche der Objektmenge 12 dar, die aus einer vorerst unbekannten Anordnung von Objekten 2 auf der Fördervorrichtung 3 gebildet ist. Diese noch nicht analysierten Objektmengeninformationen werden, falls diese Objektpunkte definieren, häufig auch als Punktewolke bezeichnet.
In Fig. 2 ist in der Bildspeicheranordnung 37 ein erster Erkennungsabschnitt 28 mit a’ gekennzeichnet und umfasst dieser eine konkrete Anzahl an Datenpaketen 39; ebenso ist in der Bildspeicheranordnung 37 ein zweiter Erkennungsabschnitt 28 mit b’ gekennzeichnet und umfasst dieser ebenfalls eine definierte Anzahl von Datenpaketen 39. Die Erkennungsabschnitte a’ und b’ werden in Folge vom Objekterkennungssystem 15 aus der Bildspeicheranordnung 37 - hier in Form eines Ringpuffers 38 - ausgelesen und darauf jeweils das Objekterkennungsverfahren angewendet. Die zur Objekterkennung eingesetzten Berechnungsalgorithmen werden mittels einer Recheneinheit 40, etwa eines Prozessors, durchgeführt und werden damit in den einzelnen Erkennungsabschnitten 28 - hier beispielhaft aus den nunmehr in das Objekterkennungssystem 15 übernommenen Erkennungsabschnitten a” und b” darin enthaltene Objekte 2 identifiziert, wobei die Identifizierung hier insbesondere gerichtet ist auf den Objekttyp, die Objektposition und die Objektorientierung. N2008/04000 -23- »· • #® • ·· ·« • · ·· · « • · • · • · • · · • · ··♦ ·· • « • · · ···♦ · · • · • · • · · • · · • · ♦· ··· ·· • ·♦ ··
Ein zusätzliches Ergebnis des Objekterkennungsverfahrens kann eine Gütebewertungskennzahl der Objekterkennung sein, die angibt, wie gut ein identifiziertes Objekt 2 mit einem im Modellspeicher 32 hinterlegten Soll-Objekt-Modell übereinstimmt.
An den identifizierten Objekten 2 wird weiters eine Kollisionsprüfung durchgeführt, mit der festgestellt wird, ob ein identifiziertes Objekt 2 bei der ermittelten Orientierung und Position vom Endeffektor 7 der Handhabungsvorrichtung 5 kollisionsfrei aufgenommen werden kann. Dabei sind benachbarte Objekte 2 sowie weitere bekannte Hindernisse, insbesondere die Fördervorrichtung 3, zu berücksichtigen. Diese Kollisionsprüfung kann vom Objekterkennungssystem 15 durchgeführt werden, ist jedoch evtl, zum Teil in der Komponentensteuerung 30 der Handhabungsvorrichtung 5 implementiert und kann von dieser durchgeführt werden.
Wie in Fig. 2 ersichtlich, entsprechen den Erkennungsabschnitten 28 in der Bildspeicheranordnung 37 konkrete Erkennungsabschnitte 28 der von der Fördervorrichtung 3 bewegten Objektmenge 12, die hier mit a und b bezeichnet sind. Wie in Fig. 2 weiters dargestellt, können sich die Erkennungsabschnitte 28, etwa wie hier die Erkennungsabschnitte a und b als Teilmengen der Objektmengen 12 auf der Fördervorrichtung 3 überschneiden und zusammen einen Überlappungsabschnitt 41 bilden, wobei Objektmengeninformationen aus dem Überlappungsabschnitt 41 sowohl als Objekt 2 im Erkennungsabschnitts a, als auch als Objekt 2 des Erkennungsabschnitts b, dem Objekterkennungsverfahren unterzogen werden. Die Bildinformationen des Überlappungsabschnitts 41 werden vom Bilderfassungssystem 16 im Zuge der kontinuierlichen Erfassung des Bildinformationsstroms 36 als Datenpakete 39 in der Bildspeicheranordnung 37 zwischengespeichert und sind hier an dieser mit 4T gekennzeichnet.
Die Ausdehnung 42 eines Überlappungsabschnitts 41 ergibt sich als Differenz aus der Größe 43 des Erkennungsabschnitts a verringert um einen Abstand 44 zwischen einer Vorderkante 45 des ersten Erkennungsabschnitts a und einer Vorderkante 46 des zweiten Erkennungsabschnitts b. Im Beispiel gemäß Fig. 2 befinden sich auf der Fördervorrichtung 3 im Erkennungsabschnitt a zwei Objekte a1 und a2, sowie im Erkennungsabschnitt b das Objekt a2 und weitere Objekte 2. Das Objekt a2 befindet sich zur Gänze im Überlappungsabschnitt 41. Dies ist möglich, wenn seine Maximalabmessung 47 kleiner ist als die Ausdehnung 42 des Überlappungsabschnitts 41. Bei der dargestellten Konstellation der Objekte 2 der Objektmenge 12 sowie der Erkennungsabschnitte a und b werden die vom Objekt a2 bewirkten Bilddaten im Bilderfassungssystem nur einmal erfasst und in der N2008/04000 -24- ·· · ·· · ·· ·· ······· · ·· • * ·· ······ * · • · ·· 4····· · · · ·· ··· ····· • · ··· ·· I ·· ··
Bildspeicheranordnung 37 zwischengespeichert, durch die Aufteilung des Bildinformationsstroms 36 in Erkennungsabschnitte 28 jedoch vom Objekterkennungssystem 15 sowohl im ersten Erkennungsabschnitt a” als auch im zweiten Erkennungsabschnitt b” dem Objekterkennungsverfahren unterworfen.
Die in Fig. 2 beispielhaft dargestellte Anordnung der Objekte 2 in der Objektmenge 12 bewirkt, dass das Objekt a1 vom Objekterkennungssystem 15 als Objekt a1” erkannt wird und dass das Objekt a2, das sich zur Gänze im Überlappungsabschnitt 41 befindet, sowohl aus dem Erkennungsabschnitt a” als Objekt a2” erkannt wird, als auch aus dem Erkennungsabschnitt b” als Objekt b1 ” erkannt wird. Da es sich bei den vom Objekterkennungssystem 15 erkannten Objekten a2” und b1 ” in der Realität lediglich um ein einziges Objekt a2 handelt, umfasst das Objekterkennungssystem 15 bzw. das damit ausgeführte Objekterkennungsverfahren weiters eine Prüfverfahren um Objekte 2, die sich in einem Überlappungsabschnitt 41 befinden und dadurch mehrfach identifiziert und lokalisiert werden, als Mehrfachidentifikation zu erkennen und der nachfolgenden Komponentensteuerung 30 der Handhabungsvorrichtung 5 als lediglich ein einziges aufzunehmba-res bzw. zu bearbeitbares Objekt a2 weiterzuleiten.
Da die Anlage 1 zum Aufnehmen und/oder Bearbeiten von Objekten 2 verschiedenster Größe geeignet sein soll, kann die Größe 43 der Ergänzungsabschnitte 28 und/oder die Ausdehnung der Überlappungsabschnitte 41 variabel programmierbar sein, etwa indem pro Erkennungsabschnitt 28 anpassbare Anzahlen von Datenpaketen 39 ausgelesen werden. Dadurch kann insbesondere die Ausdehnung 42 der Überlappungsabschnitte 41 so gewählt werden, dass diese größer ist als eine Maximalabmessung 47 der aufzunehmenden und/oder zu bearbeitenden Objekte 2. Falls mehrere Objekttypen gleichzeitig in der Objektmenge 12 enthalten sind, kann dazu insbesondere die Maximalabmessung 47 des größten Objekttyps zur Festlegung der Ausdehnung 42 der Überlappungsabschnitte 41 herangezogen werden.
Fig. 3 zeigt eine weitere Ausführungsform einer Anlage 1 zum Ausführen des erfindungsgemäßen Verfahrens zum Aufnehmen und/oder Bearbeiten von Objekten 2, das an einer von einer Fördervorrichtung 3 bewegten Objektmenge 12 ausgeführt wird.
Bei dieser Verfahrensvariante wird in einem ersten Erfassungsbereich 48 die in Förderrichtung 13 bewegte Objektmenge 12 mittels der Kamera 17 optisch erfasst und anhand des dabei erzeugten Bildinformationsstroms 36 das bereits anhand von Fig. 1 und Fig. 2 beschriebene Verfahren zur Lokalisierung, Identifizierung und Auswahl eines mit der N2008/04000 -25- ♦ · · ·· · ·· ·· ♦ · · · · ♦ · ·♦· ♦· • · · · ♦ ·«·· ♦ · t · • · ··· #···· ·· ♦♦♦ ·· · ♦ · ♦♦
Handhabungsvorrichtung 5 aufnehmbaren und/oder bearbeitbaren Objekts 2 ausgeführt. Der Bildinformationsstrom 36 wird dabei vom Bilderfassungssystem 16 und dem Objekterkennungssystem 15 in Erkennungsabschnitte 28 unterteilt und auf diese die Algorithmen zur Objekterkennung angewendet. Zusätzlich wird bei dieser Verfahrensvariante in einem zweiten Erfassungsbereich 49, der im Greifbereich 50 der Handhabungsvorrichtung 5 liegt, mittels einer zweiten Kamera 51 an der bewegten Objektmenge 12 eine zweite Bilderfassung sowie eine zweite Objekterkennung ausgeführt. Die Anlage 1 umfasst dazu eine zweite Kamera 51, ein zweites Bilderfassungssystem 52 sowie ein zweites Objekterkennungssystem 53. Durch das in einem zeitlichen Abstand zur ersten Bilderfassung und Objekterfassung angewendete zweite Bilderfassungsverfahren und Objekterkennungsverfahren werden die Objekte 2 der bewegten Objektmenge 12 im Bereich des Greifbereichs 50 der Handhabungsvorrichtung 5 zumindest ein weiteres mal erfasst. Dadurch wird ein Zustand der Objektmenge 12 erfasst, der zeitlich näher beim Aufnehmen und/oder Bearbeiten der Objekte 2 durch die Handhabungsvorrichtung 5 gelegen ist und kann diese zweite Bilderfassung und Objekterkennung dazu benutzt werden, die Ergebnisse der ersten Bilderfassung und Objekterfassung, basierend auf dem ersten Bildinformationsstrom 36 der ersten Kamera 17, auf mögliche Veränderungen der einzelnen Objekte 2 innerhalb der Objektmenge 12 zu überprüfen. Diese zweite Bilderfassung und anschließende Objekterkennung kann insbesondere dazu benutzt werden, die anhand der ersten Bilderfassung und Objekterkennung lokalisierten, identifizierten und ausgewählte Objekte 2 kurz vor dem eigentlichen Einwirken des Endeffektors 7 der Handhabungsvorrichtung 5 noch einmal einer Überprüfung der erwarteten Position unterzogen werden. Diese zweite Bilderfassung und Objekterkennung kann mit wesentlich geringerem Aufwand durchgeführt werden, da eine derartige Lageüberprüfung von vorbekannten Objekten 2 - nämlich aus der ersten Bilderfassung und Objekterkennung vorbekannten Objekten 2 - auf wenige Punkte der Oberfläche eines Objekts 2 beschränkt werden kann. Die zweite Objekterkennung kann dadurch mit einem wesentlich geringerem Rechenaufwand durchgeführt werden und die dadurch bedingte kurze Berechnungszeit erlaubt es, diese zweite Bilderfassung zeitlich kurz vor dem eigentlichen Aufnehmen und/oder Bearbeiten eines Objekts 2 durchzuführen. Das zweite vom Objekterkennungssystem 53 angewendete Objekterkennungsverfahren kann dabei die Ergebnisse des ersten Objekterkennungsverfahrens mittels des ersten Objekterkennungssystems 15 benutzen, was in Fig. 3 durch einen Pfeil 54 zwischen dem ersten Objekterkennungssystem 15 und dem zweiten Objekterkennungssystem 53 angedeutet ist, wodurch wiederum Rechenleistung eingespart werden kann oder eine vollständig eigenständige Objekterkennung durchführen, ohne die N2008/04000 -26- • ·
• · ·· ··· ·· · ·· ··
Ergebnisse des ersten Objekterkennungsverfahrens heranzuziehen. Die Bilderfassungssysteme 16, 52 sowie die Objekterkennungssysteme 15, 53 sind Bestandteil der Steuerungseinrichtung 9, und müssen nicht wie dargestellt baulich getrennte Einheiten sein, sondern können durchaus in einer gemeinsamen Einheit implementiert sein.
Fig. 3 zeigt für den Vergleich der Ergebnisse der ersten Objekterkennung und der zweiten Objekterkennung eine Vergleichereinheit 55, die ebenfalls Teil des Objekterkennungssystems 15 bzw. 53 sein kann und diesen Vergleich zwischen den anhand des zweiten Bilderfassungsverfahrens identifizierten Objekten 2 und den mittels des ersten Bilderfassungsverfahrens ermittelten Objekten 2 durchführt. Für den Fall, dass die zweite Objekt-erkennung die für den Greifbereich 50 vorausberechnete Position eines Objekts 2 bestätigt, kann an die Komponentensteuerung 30 der Handhabungsvorrichtung 5 der Befehl zum Aufnehmen und/oder Bearbeiten dieses Objekts 2 gegeben werden. Wie in Fig. 3 weiters angedeutet, ist es auch möglich, dass zur Durchführung des zweiten Bilderfassungsverfahrens und Objekterkennungsverfahrens eine zweite Kamera 51 nicht ortsfest angeordnet ist, sondern durch eine zweite Kamera 51’ an der Handhabungsvorrichtung 5 der Greifbereich 50 der Handhabungsvorrichtung 5 optisch erfasst bzw. überwacht werden kann. Auch bei dieser Anordnung der Kamera 51’ ist es möglich, die anhand des ersten Bilderfassungsverfahrens und der ersten Objekterkennung identifizierten und ausgewählten Objekte 2 kurz vor dem Aufnehmen und/oder Bearbeiten auf ihre vorausberechnete, richtige Lage hin zu überprüfen.
Wenn Objekte 2 bei der Bewegung auf der Fördervorrichtung 3 der Gefahr unterliegen, Lageveränderungen auszuführen, können durch diese doppelte Bilderfassung und Objekterkennung den Ablauf störende Veränderungen der Positionen der Objekte 2 erkannt werden und ein nicht erfolgreicher bzw. eventuell sogar Beschädigungen hervorrufender Greifvorgang und/oder Bearbeitungsvorgang vermieden werden. Bei dieser Ausführung des Verfahrens ist es weiters von Vorteil, wenn das zweite Objekterkennungsverfahren den von der zweiten Kamera 51, 51’ gelieferten Bildinformationsstrom ebenfalls in Erkennungsabschnitte unterteilt und diese Erkennungsabschnitte so gelegt werden, dass diese zumindest annähernd mit den Erkennungsabschnitten 28 im ersten Bilderfassungsverfahren und Objekterkennungsverfahren übereinstimmen oder korrespondieren.
Fig. 4 zeigt einen stark vereinfachten Ausschnitt einer Fördervorrichtung 3 mit einer darauf in Förderrichtung 13 bewegten Objektmenge 12, die aus unterschiedlichen Objekttypen besteht und in der die Objekte 2 in ungeordneter Lage von der Fördervorrichtung 3 N2008/04000 • · ♦ ·· ······· · ·· • · · · · · · ··· ·· • · · · · ··♦· « · ♦ · ·· ··· ····· «· ··· ·· · ·· ·· -27-bewegt werden. Wenn nun bei einer derartigen Objektmenge 12 mit niedrigem Ordnungsgrad im Zuge der Bilderfassung und Objekterkennung ein Erkennungsabschnitt 28 ausgewählt wird, ist es möglich, dass in diesem Erkennungsabschnitt 28 Objekte 2 verschiedener Objekttypen sowie die Objekte 2 in beliebiger Orientierung enthalten sind. In diesem Fall sind die Anforderungen an das Objekterkennungssystem 15 sehr hoch, da die mittels der Bilderfassung erfasste Objektmengenoberfläche mit verschiedenen Objekttypen verglichen werden muss bzw. in dieser Objektmengenoberfläche nach Übereinstimmungen mit verschiedenen Objekttypen mittels der Algorithmen gesucht werden muss.
Die im Zuge der Objekterkennung erforderliche Segmentierung der Bilddaten innerhalb eines Erkennungsabschnitts 28, also der Aufteilung der Bilddaten in mit hoher Wahrscheinlichkeit einzelne Objekte 2 enthaltende Teilbereiche, ist bei einer derartig ungeordneten Objektmenge 12 ungleich komplizierter als etwa bei vereinzelten Objekten 2.
Fig. 5 zeigt einen ebenfalls stark vereinfachten Ausschnitt aus einer Fördervorrichtung 3 mit einer darauf in Förderrichtung 13 bewegten Objektmenge 12, wobei hier die Objekte 2 mit höherem Ordnungsgrad angeordnet sind als in der Objektmenge 12 in Fig. 4. Die Objekte 2 sind hier innerhalb der Objektmenge 12 vereinzelt, besitzen also zueinander einen Abstand, der im Ausführungsbeispiel gemäß Fig. 5 beispielsweise durch einen Objektträger 56, der einen Teil der Objektmenge 12 also eine begrenzte Anzahl an Objekten 2 trägt und von der Fördervorrichtung 3 bewegt wird, bewirkt wird. Der Objektträger 56 kann dabei Unterteilungsmittel 57 auffassen, die die Vereinzelung der Objekte 2 auf dem Objektträger 56 bewirken oder erleichtern sowie beibehalten. Derartige Unterteilungsmittel 57 können etwa durch eine Facheinteilung 58, wie sie in Fig. 5 dargestellt ist, verwirklicht sein. Eine derartige Facheinteilung 58 kann so ausgeführt sein, dass am Objektträger 56 in jedem Aufnahmefach genau ein Objekt 2 enthalten ist. Die aus den in den Aufnahmefächern enthaltenen Objekten 2 zusammengesetzte Objektmenge 12, die unter Benutzung eines Objektträgers 56 von der Fördervorrichtung 3 bewegt wird, besitzt einen ungleich höheren Ordnungsgrad als in der ungeordneten Lage der Objekte 2 gemäß Fig. 4, wodurch die Objekterkennung mit einfacheren Algorithmen und mit wesentlich geringerem Rechenaufwand durchgeführt werden kann. Der Objektträger 56 zur Erhöhung des Ordnungsgrades kann auch durch die Fördervorrichtung 3 selbst gebildet sein, etwa indem das die Objektmenge 12 bewegende Förderband selbst Elemente wie Fächer, Stege, Noppen, Ausnehmungen, Leisten usw. aufweist und die Objekte 2 dadurch einerseits in gewissem Maße einer Vereinzelung unterzogen werden und auch in ihrer Lage bezüglich des Förderbandes stabilisiert werden. So ist etwa durch ein Förderband mit noppenarti- N2008/04000 -28- gen Erhöhungen oder muldenförmigen Vertiefungen ein stabilisiertes Bewegen auch von schwierig zu fördernden Objekten 2, wie etwa zylindrischen oder kugelförmigen Gegenständen möglich.
Durch diese Erhöhung des Ordnungsgrades wie etwa in Fig. 5 durch Vereinzelung der Objekte 2 innerhalb der Objektmenge 12 werden an die für die Durchführung des Bilderfassungsverfahrens und des Objekterkennungsverfahrens erforderlichen Systemkomponenten geringere Hardwareanforderungen gestellt oder kann diese Erleichterung der Objekterkennung dazu verwendet werden, einen kürzeren Zeitraum für die Objekterkennung vorsehen zu müssen, das heißt, dass etwa die Durchsatzleistung der geförderten Objekte 2 pro Zeiteinheit erhöht werden kann oder auch der zeitliche Abstand zwischen Bilderfassung einerseits und Aufnehmen und/oder Bearbeiten der Objekte 2 andererseits reduziert werden kann, wodurch insgesamt die Leistung und/oder die Zuverlässigkeit einer derartigen Anlage 1 erhöht werden kann.
Fig. 6 zeigt ausschnittsweise eine Draufsicht auf eine Fördervorrichtung 3, auf der eine Objektmenge 12 mittels eines Objektträgers 56 in Förderrichtung 13 bewegt wird. Die Objektmenge 12 besteht in diesem Ausführungsbeispiel aus zwei unterschiedlichen Objekttypen - hier mit dreieckiger und kreisförmiger Grundfläche - wobei die einzelnen Objekte 2 mit Abstand zueinander, also vereinzelt auf dem Objektträger 56 angeordnet sind, ihre Orientierung um die zur Oberfläche der Fördervorrichtung rechtwinkelige Hochachse jedoch beliebig ist. Die Vereinzelung der Objekte 2 auf dem Objektträger 56 kann dabei durch regelmäßig, insbesondere rasterartig angeordnete Haltemittel 59 gewährleistet sein, die jeweils ein Objekt 2 in einer zumindest annähernd gegenüber benachbarten Objekten 2 vereinzelten Position halten können. Wie Fig. 6 weiters zeigt, kann ein Objektträger 56 für das Sensorsystem 14, insbesondere das Bilderfassungssystem 16 und das Objekterkennungssystem 15 erkennbare Lokalisierungsmarkierungen 60 aufweisen, die eine Vereinfachung der Lokalisierung und Erkennung des Objektträgers und damit in Folge auch der der darauf rasterartig angeordneten Objekte 2 ermöglicht.
Fig. 7 zeigt ähnlich wie Fig. 6 eine Draufsicht auf einen von einer Fördervorrichtung 3 bewegten Objektträger 56, mit dem die Objektmenge 12 in Förderrichtung 13 bewegt wird. Bei diesem Ausführungsbeispiel sind die einzelnen Objekte 2 der Objektmenge 12 nur von einer Objekttype und an der Oberseite des Objektträgers alle mit derselben Orientierung angeordnet. Die Objektmenge 12 besitzt damit einen sehr hohen Ordnungsgrad, der die von der Anlage 1 auszuführende Bilderfassung und daran anschließende Objekter- N2008/04000 -29- *· · kennung noch weiter vereinfachen kann. Die Fixierung der Objekte 2 auf dem Objektträger 56 erfolgt in diesem Ausführungsbeispiel durch Haltemittel 59 in Form von Tragleisten 61, die an der Oberseite zueinander beabstandete Magnetelemente 62 aufweisen, mit denen ferromagnetische Objekte 2 in ihrer Position auf den Tragleisten 61 fixiert werden können. Die Form der Tragleisten 61 erlaubt eine gute Zugänglichkeit der Objekte 2 für einen Endeffektor 7 der Handhabungsvorrichtung 5, beispielsweise für das Aufnehmen mittels eines Zangengreifers, da durch die gegenüber dem Grundkörper des Objektträgers 56 erhabenen Tragleisten 61 das Ergreifen von Objekten 2 erleichtert. Anstelle von Magnetelementen 62 können selbstverständlich auch Vakuumsaugelemente, adhäsiv wirkende Haftelemente, Elektrostatikelemente, Klemmelemente oder ähnlich wirkende Haltemittei 59 vorgesehen sein.
In der Fig. 8 ist eine weitere und gegebenenfalls für sich eigenständige Ausführungsform der Anlage 1 gezeigt, wobei wiederum für gleiche Teile gleiche ßezugszeichen bzw. Bauteilbezeichnungen wie in den vorangegangenen Fig. 1 bis 7 verwendet werden. Um unnötige Wiederholungen zu vermeiden, wird auf die detaillierte Beschreibung in den vorangegangenen Fig. 1 bis 7 hingewiesen bzw. Bezug genommen.
Bei dieser Ausführung der Anlage 1 umfasst diese ähnlich wie in Fig. 1 eine Fördervorrichtung 3, hier wieder in Form eines Förderbandes 4, mit der eine aus Objekten 2 zusammengesetzte Objektmenge 12 in Förderrichtung 13 in den Greifbereich 50 einer Handhabungsvorrichtung 5, etwa in Form eines Roboters 6 bewegt wird. Wie bereits anhand von Fig. 2 beschrieben, wird der von der Kamera 17 generierte Bildinformationsstrom 36, der die optisch erfasste Information über die bewegte Objektmenge 12 enthält, zur Durchführung des Objekterkennungsverfahrens im Objekterkennungssystem 15 in Erkennungsabschnitte 28 unterteilt, auf die die Algorithmen zur Objekterkennung angewendet werden. Die in den einzelnen Erkennungsabschnitten 28 enthaltenen Objektmengeninformationen in Form von Objektpunktkoordinaten werden auch in diesem Ausführungsbeispiel wieder mit in einem Modellspeicher 32 enthaltenen CAD - Modell - Daten 34 verglichen und dadurch aufnehmbare Objekte 2 lokalisiert, identifiziert und ausgewählt. Von der Handhabungsvorrichtung 5 nicht aufgenommene Objekte 2 werden in der Anlage 1 an eine Rückfördervorrichtung 63 übergeben, mit der diese Objekte 2 wieder an den Beginn der Fördervorrichtung 3 zurückbewegt werden können, wodurch ein Objektkreislauf gebildet ist. N2008/04000 * • ·· · ·· ·· • •••·· · ·· • · · · · · ··· ·· • · · · ···· · · · · • ··· ····· ··· ·· · ·· ·· -30-lm Ausführungsbeispiel gemäß Fig. 8 endet die Rückfördervorrichtung 63 nicht direkt an der Fördervorrichtung 3 sondern an einer Beschickvorrichtung 64, mit der eine Beschickung der Fördervorrichtung 3 mit Objekten 2 erfolgen kann, etwa indem diese aus einem Teilevorrat 65, der eine Anzahl von aufzunehmenden und/oder bearbeitenden Objekten 2 umfasst, Teilmengen abgescheidet und an die Fördervorrichtung 3 übergibt. Diese Beschickvorrichtung 64 ist hier beispielhaft als Steigförderer 66 dargestellt, der einen Teilebunker 67 und einen Hochförderer 68 umfasst. Der Hochförderer 68 ist beispielsweise mit einem endlosumlaufenden Zugmittel ausgestattet, das mittels Mitnehmern vom Teilevorrat 65 Teilmengen an Objekten 2 abtrennt und nach einem schräg ansteigenden Hochtransport mittels des Hochförderers 68 an das Förderband 4 der Fördervorrichtung 3 übergibt. Da die Rückfördervorrichtung 63 sowie die Beschickvorrichtung 64 ebenfalls der Bewegung der Objekte 2 dienen, können diese auch als Bestandteil der Fördervorrichtung 3 angesehen werden.
Da wie bereits anhand der Fig. 4 bis 7 beschrieben, der Ordnungsgrad der Objekte 2 innerhalb der bewegten Objektmenge 12 die Leistungsanforderungen an das Objekterkennungssystem 15 beeinflusst bzw. stark damit zusammenhängt, kann das erfindungsgemäße Verfahren auch dadurch gekennzeichnet sein, dass eine vom Objekterkennungssystem 15 generierte Ausgangsgröße 69 an die Fördervorrichtung 3 bzw. an die dieser zugeordnete Komponentensteuerung 29 übermittelt wird und der Ordnungsgrad der von der Fördervorrichtung 3 bewegten Objektmenge 12 durch Beeinflussung und/oder Verstellung der Fördervorrichtung 3 beeinflusst wird. Die Ausgangsgröße 69 kann dabei etwa eine Kennzahl der Ausnutzung der Rechenleistung der Steuervorrichtung 9 sein oder ein Signal, das eine Überlastung oder eine schlechte Ausnutzung der Rechenleistung anzeigt.
Das Ergebnis des Objekterkennungsverfahrens, das von der Fördermenge 12, insbesondere von deren Ordnungsgrad und dadurch auch von den Einstellungen der Fördervorrichtung 3 abhängig ist, wird vom Objekterkennungssystem 15 an die Fördervorrichtung 3 bzw. deren Komponentensteuerung 29 zurückgeführt, wodurch ein Regelkreis gebildet ist. Diese Rückführung der Ausgangsgröße 69 kann insbesondere bewirken, dass die von der Fördervorrichtung 3 in den Erfassungsbereich des Sensorsystems 14 und in Folge in den Greifbereich 50 der Handhabungsvorrichtung 5 bewegte Objektmenge 12 in ihrem Ordnungsgrad verändert wird, indem etwa durch Veränderung von Fördergeschwindigkeiten oder einer Beschickmenge der Vereinzelungsgrad der Objekte 2 innerhalb der Fördermenge 12 erhöht oder gesenkt wird und dadurch an die von der Steuerungseinrichtung 9, N2008/04000 ·· · 4 • ♦ · · · · · ··· ·· • · · · · ···· · · · · ·· ··· ····· ·· ··· ·· · ·· ·· -31 -insbesondere dem Objekterkennungssystem 15 erzielbare Leistung optimal angepasst werden kann und dadurch die Gesamtleistung der Anlage 1 erhöht wird. Die in Fig. 8 von der Komponentensteuerung 29 an die Teilkomponenten der Fördervorrichtung 3 - in diesem Fall die Beschickvorrichtung 64, das Förderband 4 sowie die Rückfördervorrichtung 63 abgegebenen Steuersignale 70 können aufgrund dieser Ausbildung als Regelkreis von der Ausgangsgröße 69, also vom Ergebnis des Objekterkennungsverfahrens direkt abhängig gemacht werden.
Mittel um den Ordnungsgrad der Objektmenge 12 im Bereich der Fördervorrichtung 3 zu erhöhen können insbesondere in der Anwendung von aus dem Stand der Technik bekannten Maßnahmen dazu, wie etwa Vereinzelungseinrichtungen, Ausrichtstationen, Schikanenabschnitten und dgl. bestehen, deren Wirkung auf den Ordnungsgrad einstellbar ist und basierend auf der Ausgangsgröße 69 beeinflusst werden können.
Die Ausführungsbeispiele zeigen mögliche Ausführungsvarianten des Verfahrens zum Aufnehmen und/oder Bearbeiten von Objekten 2 und einer zu dessen Anwendung geeigneten Anlage 1 wobei an dieser Stelle bemerkt sei, dass die Erfindung nicht auf die speziell dargestellten Ausführungsvarianten desselben eingeschränkt ist, sondern vielmehr auch diverse Kombinationen der einzelnen Ausführungsvarianten untereinander möglich sind und diese Variationsmöglichkeit aufgrund der Lehre zum technischen Handeln durch gegenständliche Erfindung im Können des auf diesem technischen Gebiet tätigen Fachmannes liegt. Es sind also auch sämtliche denkbaren Ausführungsvarianten, die durch Kombinationen einzelner Details der dargestellten und beschriebenen Ausführungsvariante möglich sind, vom Schutzumfang mit umfasst.
Der Ordnung halber sei abschließend darauf hingewiesen, dass zum besseren Verständnis des Aufbaus der Anlage 1 diese bzw. deren Bestandteile teilweise unmaßstäblich und/oder vergrößert und/oder verkleinert dargestellt wurden.
Die den eigenständigen erfinderischen Lösungen zugrundeliegende Aufgabe kann der Beschreibung entnommen werden.
Vor allem können die einzelnen in den Fig. 1; 2; 3; 4; 5; 6; 7 und 8 gezeigten Ausführungen den Gegenstand von eigenständigen, erfindungsgemäßen Lösungen bilden. Die diesbezüglichen, erfindungsgemäßen Aufgaben und Lösungen sind den Detailbeschreibungen dieser Figuren zu entnehmen. N2008/04000 4 • · ·
Bezugszeichenaufstellung 1 Anlage 2 Objekt 3 Fördervorrichtung 4 Förderband 5 Handhabungsvorrichtung 6 Roboter 7 Endeffektor 8 Vakuumgreifer 9 Steuervorrichtung 10 Fördervorrichtung 11 Objekt 12 Objektmenge 13 Förderrichtung 14 Sensorsystem 15 Objekterkennungssystem 16 Bilderfassungssystem 17 Kamera 18 Lichtquelle 19 Beleuchtungsebene 20 Erfassungsrichtung 21 Winkel 22 Linienlaser 23 Wegmesssystem 24 Wegsensor 25 Drehgeber 26 Antriebssystem 27 Knotenpunkt 28 Erkennungsabschnitt 29 Komponentensteuerung 30 Komponentensteuerung 31 Komponentensteuerung 32 Modellspeicher 33 CAD - System 34 CAD - Modell - Daten 35 Kameraeinheit 36 Bildinformationsstrom 37 Bildspeicheranordnung 38 Ringpuffer 39 Datenpaket 40 Recheneinheit 41 Überlappungsabschnitt 42 Ausdehnung 43 Größe 44 Abstand 45 Vorderkante 46 Vorderkante 47 Maximalabmessung 48 Erfassungsbereich 49 Erfassungsbereich 50 Greifbereich 51 Kamera 52 Bilderfassungssystem 53 Objekterkennungssystem 54 Pfeil 55 Vergleichereinheit 56 Objektträger 57 Unterteilungsmittel 58 Facheinteilung 59 Haltemittel 60 Lokalisierungsmarkierung 61 Tragleiste 62 Magnetelement 63 Rückfördervorrichtung 64 Beschickvorrichtung 65 Teilevorrat 66 Steigförderer 67 Teilebunker 68 Hochförderer 69 Ausgangsgröße 70 Steuersignal N2008/04000

Claims (25)

  1. -1 - ·· · ·· · ·· ·· ······· · ·· • » · · · · · ··· ·· • · · · · ···· · · · · t · ··· ····· ·· ··· ·· · ·· ·· Patentansprüche 1. Verfahren zum sequentiellen Aufnehmen und/oder Bearbeiten von einzelnen Objekten (2) aus einer durch eine Fördervorrichtung (3), insbesondere kontinuierlich, bewegten Objektmenge (12) mittels einer Handhabungsvorrichtung (5), insbesondere eines Industrieroboters (6), umfassend ein an der bewegten Objektmenge (12) ausgeführtes Bilderfassungsverfahren und ein Objekterkennungsverfahren zur Lokalisierung, Identifizierung und Auswahl zumindest eines mit der Handhabungsvorrichtung (5) aufnehmbaren und/oder bearbeitbaren Objekts (2) mittels des Bildinformation des Bilderfassungsverfahrens verarbeitenden Objekterkennungssystems (15), und Aufnehmen und/oder Bearbeiten eines ausgewählten Objekts (2) mit der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass ein vom Bilderfassungsverfahren fortlaufend generierter Bildinformationsstrom (36) in Objektmengeninformationen, insbesondere Objektpunktkoordinaten und Bewegungsinformationen, enthaltende Erkennungsabschnitte (28) der Objektmenge (12) unterteilt wird und die Identifizierung und Auswahl der mit der Handhabungsvorrichtung (5) aufnehmbaren und/oder bearbeitbaren Objekte (2) vom Objekterkennungssystem (15) für einzelne Erkennungsabschnitte (28) erfolgt.
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aufeinanderfolgende bzw. benachbarte Erkennungsabschnitte (28) vom Objekterkennungssystem (15) so begrenzt werden, dass sie einen gemeinsamen Überlappungsabschnitt (41) aufweisen.
  3. 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Größe (43) der Erkennungsabschnitte (28) vom Objekterkennungssystem (15) variabel anpassbar sind.
  4. 4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass ein Überlappungsabschnitt (41) eine Ausdehnung (42) aufweist, die eine Maximalabmessung (47) der Objekte (2) übersteigt. N2008/04000 -2- • · • · · • ··· • · ··· ··
  5. 5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Bilderfassungsverfahren ein Lichtschnittverfahren benutzt, bei dem eine Lichtquelle (18) Licht in einer Beleuchtungsebene (19) auf die bewegte Objektmenge (12) aussendet, und eine Kamera (17) vorgesehen ist, deren Erfassungsrichtung (20) zur Beleuchtungsebene (19) einen Winkel (21) einschließt.
  6. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass anhand eines einzelnen Erkennungsabschnitts (28) oder anhand mehrerer Erkennungsabschnitte (28) eine Reihung von zumindest zwei, insbesondere mehreren identifizierten und aufnehmbaren Objekten (2) erstellt wird, anhand derer die zeitliche Abfolge der Handhabung bzw. Bearbeitung von Objekten (2) durch die Handhabungsvorrichtung (5) festgelegt wird.
  7. 7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Reihung auf einer den identifizierten Objekten (2) jeweils zugeordneten Erkennungsgüte basiert.
  8. 8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Identifizierung und eine damit verknüpfte Lageerkennung durch Vergleich von aus Bildinformationen ermittelten Objektmengeninformationen mit dem Objekterkennungssystem (15) zugeführten CAD-Modell-Daten (34) von aufzunehmenden und/oderzu bearbeitenden Objekten (2) erfolgt.
  9. 9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass vor dem Aufnehmen eines Objekts (2) die mittels einer raumfesten Kamera (17) ermittelte Position des Objekts (2) mit einer anhand einer mit der Handhabungsvorrichtung (5) ver-bundenenen Kamera (51’) ermittelten Position des Objekts (2) auf Abweichung verglichen wird.
  10. 10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Bilderfassung durch die mit der Handhabungsvorrichtung (5) verbundenene Kamera (51’) zeitlich nach der Bilderfassung durch die raumfeste Kamera (17) erfolgt, insbesondere zeitlich nahe dem Zeitpunkt des Aufnehmens eines Objekts (2). N2008/04000 -3- • ·· · ·· ·· ·· · · · · · · • · · · · ··· ·· * • · · ··«· · « · · • · · t · · · · ··· ·· · ·· #·
  11. 11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die pro Zeiteinheit durch die Fördervorrichtung (3) bewegte Anzahl an Objekten (2) variabel, insbesondere stufenlos, einstellbar ist.
  12. 12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Identifizierung und Auswahl der Objekte (2) vom Objekterkennungssystem (15) in mehreren Erkennungsabschnitten (28) simultan durchgeführt wird.
  13. 13. Verfahren zum sequentiellen Handhaben und/oder Bearbeiten von einzelnen Objekten (2) aus einer durch eine Fördervorrichtung (3), insbesondere kontinuierlich, bewegten Objektmenge (12) mittels einer Handhabungsvorrichtung (5), insbesondere eines Industrieroboters (6), umfassend ein an der bewegten Objektmenge (12) ausgeführtes Bilderfassungsverfahren und ein Objekterkennungsverfahren zur Identifizierung und Auswahl eines mit der Handhabungsvorrichtung (5) aufnehmbaren und/oder bearbeitbaren Objekts (2) mittels des Bildinformation des Bilderfassungsverfahrens verarbeitenden Objekterkennungssystems (15), und Aufnehmen und/oder Bearbeiten eines ausgewählten Objekts (2) mit der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass eine vom Objekterkennungssystem (15) generierte Ausgangsgröße (69) an die Fördervorrichtung (3) rückgeführt wird, und der Ordnungsgrad der von der Fördervorrichtung (3) bewegten Objektmenge (12) durch Beeinflussung und/oder Verstellung der Fördervorrichtung (3) beeinflusst wird.
  14. 14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass das Verfahren nach einem der Ansprüche 1 bis 12 ausgeführt wird.
  15. 15. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass der Ordnungsgrad der Objektmenge (12) durch die Anzahl der pro Zeiteinheit geförderten Objekte (2) und/oder dem Vereinzelungsgrad der Objekte (2) innerhalb der Objektmenge (12) und/oder dem Grad der Ausrichtung der Objekte (2) bezüglich der Fördervorrichtung (3) gebildet ist. N2008/04000 -4- ·· · ·· » · · · I · · · ··· ft · ···» · < ··
  16. 16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass die Objekte (2) der Objektmenge (12) der Fördervorrichtung (3) in ungeordneter Lage zugeführt werden.
  17. 17. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass die Objekte (2) der Objektmenge (12) an die Fördervorrichtung (3) in zumindest teilweise geordneter Lage zugeführt werden.
  18. 18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass die Objekte (2) an der Fördervorrichtung (3) an einem von dieser bewegten Objektträger (56) angeordnet sind.
  19. 19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass einzelne Objekte (2) am Objektträger (56) an regelmäßig, insbesondere rasterartig, angeordneten Haltemitteln (59) angeordnet sind.
  20. 20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die Haltemittel (59) aus einer Gruppe umfassend zumindest Magnetelemente (62), Vakuumelemente, adhäsiv wirkende Haftelemente, Elektrostatikelemente, Klemmelemente gewählt sind.
  21. 21. Verfahren zum sequentiellen Aufnehmen und/oder Bearbeiten von einzelnen Objekten (2) aus einer durch eine Fördervorrichtung (3), insbesondere kontinuierlich, bewegten Objektmenge (12) mittels einer Handhabungsvorrichtung (5), insbesondere eines Industrieroboters (6), umfassend ein an der bewegten Objektmenge (12) ausgeführtes Bilderfassungsverfahren und ein Objekterkennungsverfahren zur Identifizierung und Auswahl zumindest eines mit der Handhabungsvorrichtung (5) aufnehmbaren und/oder bearbeitbaren Objekts (2) mittels eines Bildinformation des Bilderfassungsverfahrens verarbeitenden Objekterkennungssystems (15), und Aufnehmen und/oder Bearbeiten eines ausgewählten Objekts (2) mit der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass die Objektmenge (12) in einem zeitlichen Abstand ein weiteres Mal einem Bilderfassungsverfahren und einem Objekterkennungsverfahren unterworfen wird und bei einem anhand der ersten Objekterkennung identifizierten und ausgewählten Objekt (2) bestimmte anhand der zweiten Bilderfassung festgestellte Objektmerkmale, insbesondere Objekt- N2008/04000 -5- ·· • ·· ·· • · ·· · · • · • • • · • · · • · ··· ·· * · • · · ···# · · • • • · f · 1 • · · • • ·* ··· ·· • ·· ·· punktkoordinaten, auf Übereinstimmung mit Objektmerkmalen aus der ersten Objekterkennung überprüft werden.
  22. 22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass das Verfahren nach einem der Ansprüche 1 bis 20 ausgeführt wird.
  23. 23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass die zweite Bilderfassung und Objekterkennung unmittelbar vor dem Aufnehmen oder Bearbeiten eines Objekts (2) erfolgt.
  24. 24. Verfahren nach einem der Ansprüche 1 bis 23, dadurch gekennzeichnet, dass die Bilderfassung ein 3-D-Erfassungsverfahren aus einer Gruppe umfassend Stereo-Kamera-Erfassung, Strukturlicht-Erfassung, Laser-Laufzeitmessung ausgewählt ist.
  25. 25. Anlage (1) zum Zuführen und Handhaben und/oder Bearbeiten von Objekten (2), umfassend eine Fördervorrichtung (3) zum Bewegen einer Objektmenge (12) mit zuzuführenden und/oder zu bearbeitenden Objekten (2), eine Handhabungsvorrichtung (5), insbesondere einen Industrieroboter (6), zum sequentiellen Aufnehmen von einzelnen Objekten (2) aus der bewegten Objektmenge (12), ein Bilderfassungssystem (16) zur Erzeugung eines automatisiert verarbeitbaren Bildinformationsstroms (36), ein Objekterkennungssystem (15) zur Identifizierung und Auswahl von aufnehmbaren Objekten (2) basierend auf dem Bildinformationsstrom (36), eine programmierbare Steuervorrichtung (9) zur Steuerung der Handhabungsvorrichtung (5), dadurch gekennzeichnet, dass die Anlage (1) zur Ausführung des Verfahrens gemäß einem der vorhergehenden Ansprüche geeignet ausgebildet ist. STIWA-Fertigungstechnik Sticht Gesellschaft m.b.H. durch
    N2008/04000
AT0150108A 2008-09-26 2008-09-26 Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten AT507339B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
AT0150108A AT507339B1 (de) 2008-09-26 2008-09-26 Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
PCT/AT2009/000360 WO2010034044A2 (de) 2008-09-26 2009-09-18 Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT0150108A AT507339B1 (de) 2008-09-26 2008-09-26 Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten

Publications (2)

Publication Number Publication Date
AT507339A1 true AT507339A1 (de) 2010-04-15
AT507339B1 AT507339B1 (de) 2011-06-15

Family

ID=41449940

Family Applications (1)

Application Number Title Priority Date Filing Date
AT0150108A AT507339B1 (de) 2008-09-26 2008-09-26 Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten

Country Status (2)

Country Link
AT (1) AT507339B1 (de)
WO (1) WO2010034044A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012203134A1 (de) * 2012-02-29 2013-08-29 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zum Aufnehmen eines Konturteils
DE102014102943A1 (de) 2014-02-13 2015-08-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102018117441B4 (de) * 2017-07-26 2020-08-13 Fanuc Corporation Artikeltransportsystem und transportsystem-steuervorrichtung

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010014105A1 (de) * 2010-04-07 2011-10-13 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Vermessen von Gegenständen während des Transports
AT509951A1 (de) * 2010-06-11 2011-12-15 Stiwa Holding Gmbh Verfahren zur ermittlung und festlegung eines lagemerkmals eines stückguts in einer fördervorrichtung
CH705016A1 (de) * 2011-05-30 2012-11-30 Feller Ag Zuführeinrichtung zum Zuführen von Teilen und Verfahren zum Betreiben einer Zuführeinrichtung.
US8849620B2 (en) 2011-11-18 2014-09-30 Nike, Inc. Automated 3-D modeling of shoe parts
US10552551B2 (en) 2011-11-18 2020-02-04 Nike, Inc. Generation of tool paths for shore assembly
US9451810B2 (en) * 2011-11-18 2016-09-27 Nike, Inc. Automated identification of shoe parts
US8958901B2 (en) 2011-11-18 2015-02-17 Nike, Inc. Automated manufacturing of shoe parts
US8755925B2 (en) 2011-11-18 2014-06-17 Nike, Inc. Automated identification and assembly of shoe parts
JP5824173B1 (ja) 2014-02-28 2015-11-25 ファナック株式会社 ロボットを用いて物品を整列させる物品整列装置及び物品整列方法、並びに物品整列装置を備えた物品移送システム
EP4219093A1 (de) 2015-08-26 2023-08-02 Berkshire Grey Operating Company, Inc. Systeme und verfahren zur bereitstellung von kontaktdetektion in einem gelenkarm
EP4137280A1 (de) 2015-09-01 2023-02-22 Berkshire Grey Operating Company, Inc. Systeme und verfahren zur bereitstellung von dynamischen robotersteuerungssystemen
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
US10265872B2 (en) 2015-09-09 2019-04-23 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
ES2952517T3 (es) * 2015-09-11 2023-10-31 Berkshire Grey Operating Company Inc Sistemas robóticos y métodos para identificar y procesar diversos objetos
WO2017083574A1 (en) 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of obejcts
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
CA3117170C (en) 2016-02-08 2023-08-29 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
EP3538961B1 (de) 2016-11-08 2023-01-25 Berkshire Grey Operating Company, Inc. Systeme und verfahren zur verarbeitung von objekten
US10538394B2 (en) 2016-11-28 2020-01-21 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
CA3155737C (en) 2016-12-06 2023-11-14 Berkshire Grey Operating Company, Inc. Systems and methods for providing for the processing of objects in vehicles
EP3551560A1 (de) 2016-12-09 2019-10-16 Berkshire Grey Inc. Systeme und verfahren zur verarbeitung von in fahrzeugen bereitgestellten objekten
US10639787B2 (en) 2017-03-06 2020-05-05 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
CN110691742B (zh) 2017-03-24 2022-09-09 伯克希尔格雷营业股份有限公司 包括自动处理的用于处理物体的系统和方法
CA3061181C (en) 2017-04-24 2023-10-03 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
JP6646026B2 (ja) * 2017-10-16 2020-02-14 ファナック株式会社 作業システム、物品に対する作業実施方法、およびロボット
JP6687591B2 (ja) 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
US11731792B2 (en) * 2018-09-26 2023-08-22 Dexterity, Inc. Kitting machine
US20200095001A1 (en) * 2018-09-26 2020-03-26 Dexterity, Inc. Robotic kitting system
US20220024705A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by evacuation
WO2022020159A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a passively collapsing vacuum gripper
BE1028905B1 (nl) * 2020-12-15 2022-07-19 Montech Bvba Werkwijze en inrichting voor het geautomatiseerd verpakken van objecten
CN112756936A (zh) * 2020-12-29 2021-05-07 曙光信息产业股份有限公司 服务器装配工站的上料系统、服务器装配系统及上料方法
DE102021104900A1 (de) * 2021-03-01 2022-09-01 Rsg Verwaltungs Gmbh Verfahren zur Vereinzelung und Sortierung von Vorprodukten und Vorrichtung
AT524802B1 (de) * 2021-03-05 2023-04-15 Engel Austria Gmbh Verfahren zum Ablegen von Halbzeugen
CN118055897A (zh) 2021-10-06 2024-05-17 伯克希尔格雷营业股份有限公司 利用转移系统对提供在升高车辆中的物体的动态处理和用于接收物体的方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
EP0204516A3 (de) * 1985-06-04 1990-01-31 Adept Technology, Inc. Sichtanlage zum Unterscheiden sich berührender Teile
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
JPH0748018A (ja) * 1993-08-03 1995-02-21 Omori Mach Co Ltd 物品移載装置用物品検出装置
JP3405045B2 (ja) * 1995-03-28 2003-05-12 松下電工株式会社 部品供給方法およびその装置
US6032343A (en) * 1997-02-24 2000-03-07 Ethicon, Inc. Automated swage wind and packaging machine
US6483935B1 (en) * 1999-10-29 2002-11-19 Cognex Corporation System and method for counting parts in multiple fields of view using machine vision
JP4809524B2 (ja) * 2000-10-06 2011-11-09 セイコーインスツル株式会社 トラッキング方法、トラッキングシステム、及びトラッキング装置
ATE401582T1 (de) * 2004-04-08 2008-08-15 Festo Ag & Co Kg Bilderfassungsvorrichtung und verfahren zur erfassung bewegter objekte
JP4864363B2 (ja) * 2005-07-07 2012-02-01 東芝機械株式会社 ハンドリング装置、作業装置及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012203134A1 (de) * 2012-02-29 2013-08-29 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zum Aufnehmen eines Konturteils
DE102014102943A1 (de) 2014-02-13 2015-08-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
US9233469B2 (en) 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
DE102014102943B4 (de) 2014-02-13 2018-08-30 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102018117441B4 (de) * 2017-07-26 2020-08-13 Fanuc Corporation Artikeltransportsystem und transportsystem-steuervorrichtung

Also Published As

Publication number Publication date
WO2010034044A3 (de) 2010-05-27
AT507339B1 (de) 2011-06-15
WO2010034044A2 (de) 2010-04-01

Similar Documents

Publication Publication Date Title
AT507339B1 (de) Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102015102740B4 (de) Vorrichtung und Verfahren zum Anordnen von Gegenständen mittels Roboter und Gegenstandübertragungssystem
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE112012002677T9 (de) Zuführvorrichtung für Bauelemente
DE102015015638B4 (de) Vorrichtung und Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
DE102019003334B4 (de) Robotersystem und Steuerverfahren für ein Robotersystem zum Entnehmen von Werkstücken aus loser Schüttung
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102015008195B4 (de) Gegenstandsausrichtvorrichtung zum Ausrichten von Gegenständen auf einem Förderband
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102015117241A1 (de) Ansteuerung einer Förderanlage
DE102013109220A1 (de) Roboter-Vorrichtung und Verfahren zum Herausnehmen von Bulkware aus einem Lager
DE102018212531B4 (de) Artikeltransfervorrichtung
EP3587044B1 (de) Verfahren zum greifen von objekten in einem suchbereich und positioniersystem
DE112019000097B4 (de) Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
EP2693363A1 (de) Kamerasystem und Verfahren zur Erfassung eines Stromes von Objekten
AT520958A1 (de) Robotersystem mit an Warentypen angepassten Bewegungsabläufen und Betriebsverfahren hierfür
WO2018108782A1 (de) Verfahren und vorrichtung zum erfassen von störungen beim objekttransport
EP3615908B1 (de) Steuereinrichtung für eine prüfvorrichtung, prüfanordnung mit der steuereinrichtung, verfahren zur ansteuerung der prüfanordnung und computerprogramm
DE102019122861B4 (de) Gegenstandsaufnahmesystem
DE102018109329B4 (de) Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
DE102014114272B4 (de) Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
DE102019200930A1 (de) Vorrichtung und Verfahren zum automatischen Handhaben von Lagereinheiten
DE102023110111B3 (de) Verfahren zum Ansteuern einer Handhabungsanlage sowie Handhabungsanlage

Legal Events

Date Code Title Description
MM01 Lapse because of not paying annual fees

Effective date: 20210926