DE102019122861A1 - Gegenstandsaufnahmesystem - Google Patents

Gegenstandsaufnahmesystem Download PDF

Info

Publication number
DE102019122861A1
DE102019122861A1 DE102019122861.1A DE102019122861A DE102019122861A1 DE 102019122861 A1 DE102019122861 A1 DE 102019122861A1 DE 102019122861 A DE102019122861 A DE 102019122861A DE 102019122861 A1 DE102019122861 A1 DE 102019122861A1
Authority
DE
Germany
Prior art keywords
work data
data
objects
items
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019122861.1A
Other languages
English (en)
Other versions
DE102019122861B4 (de
Inventor
Masafumi OOBA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102019122861A1 publication Critical patent/DE102019122861A1/de
Application granted granted Critical
Publication of DE102019122861B4 publication Critical patent/DE102019122861B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G61/00Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40007Optimize sequence of pick and place operations upon arrival of workpiece on conveyor

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Specific Conveyance Elements (AREA)

Abstract

Dieses Gegenstandsaufnahmesystem beinhaltet eine Detektionsvorrichtung 20, welche eine Position von mehreren Gegenständen O detektiert, die bewegt werden, und eine Steuereinheit 40, und wobei die Steuereinheit 40 Folgendes durchführt: Arbeitsdatenerstellungsverarbeitung, welche Arbeitsdaten erstellt, die Positionsdaten von jedem der mehreren Gegenstände O aufweisen, Arbeitsdatenspeicherungsverarbeitung, die die mehreren der erstellten Arbeitsdaten speichert, Regionenbestimmungsverarbeitung, welche eine Bestimmungsregion an der Peripherie von Zielbeobachtungsarbeitsdaten bestimmt, der Aufmerksamkeit geschenkt werden sollte, unter den mehreren der gespeicherten Arbeitsdaten, und Reihenfolgebestimmungsverarbeitung, welche die Aufnahmereihenfolge der Gegenstände O unter Verwendung der Zielbeobachtungsarbeitsdaten und der Peripheriearbeitsdaten, die sich innerhalb der Bestimmungsregion befinden, bestimmt.

Description

  • {Technisches Gebiet}
  • Diese Erfindung betrifft ein Gegenstandsaufnahmesystem.
  • {Allgemeiner Stand der Technik}
  • Ein bekanntes Gegenstandsaufnahmesystem beinhaltet herkömmlicherweise eine Detektionsvorrichtung, die Gegenstände detektiert, die durch eine Fördereinrichtung bewegt werden, und einen Roboter, und wobei der Roboter ein Werkzeug verwendet, das an einem distalen Endteil des Roboters vorgesehen ist, um somit die Gegenstände auf der Fördereinrichtung aufzunehmen. (Siehe beispielsweise PTL 1.) In einem solchen Fall, bei dem mehrere der Gegenstände auf der Fördereinrichtung miteinander überlappt sind, startet das Gegenstandsaufnahmesystem das Aufnehmen von einem Gegenstand, der sich an der höchsten Position befindet.
  • {Zitatliste}
  • {Patentliteratur}
  • {PTL 1} Ungeprüfte japanische Patentanmeldungsveröffentlichung Nr. 2018-111140
  • {Kurzfassung der Erfindung}
  • {Technisches Problem}
  • Die Gegenstände sind miteinander auf verschiedene Weise auf der Fördereinrichtung überlappt und die Überlappungsweise variiert in Abhängigkeit von der Menge der Gegenstände, einer Art der Gegenstände und dergleichen auf der Fördereinrichtung. Und in einem derartigen Fall, bei dem es Klumpen der Gegenstände gibt, bei denen die Gegenstände miteinander an mehreren Stellen auf der Fördereinrichtung miteinander überlappen, und wenn der Roboter einen Gegenstand bevorzugterweise aufnimmt, der sich an der höchsten Position befindet, kann die Prioritätsreihenfolge des Aufnehmens der Gegenstände an einer tiefergelegenen Position und auf einer Flussabwärtsseite abgesenkt werden. Aus diesem Grunde ist es nötig zum Erreichen effektiver Aufnahme der Gegenstände, die Aufnahmekriterien als Reaktion auf die Menge der Gegenstände, eine Art der Gegenstände und dergleichen an einem Produktionsort häufig anzupassen, wobei das Gegenstandsaufnahmesystem allerdings komplizierte Einstellungen erfordert, welche den Prioritätsgrad auf die hohe Position und den Prioritätsgrad auf die Flussabwärtsseite einstellt.
  • Die vorliegende Erfindung ist unter Berücksichtigung der vorerwähnten Umstände vorgenommen worden. Eine Aufgabe der vorliegenden Erfindung besteht darin, ein Gegenstandsaufnahmesystem bereitzustellen, das in der Lage ist zum Verbessern der Effizienz des Aufnehmens von Gegenständen, die durch eine Fördereinrichtung bewegt werden, ohne komplizierte Einstellungen zu benötigen.
  • {Lösung des Problems}
  • Um unter den oben erwähnten Umständen eine Verbesserung vorzunehmen, setzt die Erfindung die folgenden Mittel ein.
  • Ein Gegenstandsaufnahmesystem gemäß einem ersten Aspekt der vorliegenden Erfindung beinhaltet ein Detektionsteil, das zumindest eine Position von mehreren Gegenständen detektiert, die durch ein Fördermittel bewegt werden; und eine Steuereinheit, wobei die Steuereinheit Folgendes durchführt: Arbeitsdatenerstellungsverarbeitung, welche Arbeitsdaten erstellt, die zumindest Positionsdaten von jedem der mehreren Gegenstände aufweisen, Arbeitsdatenspeicherungsverarbeitung, welche die mehreren Arbeitsdaten, die durch die Arbeitsdatenerstellungsverarbeitung erstellt werden, speichert, Regionenbestimmungsverarbeitung, welche eine Bestimmungsregion an der Peripherie von Zielbeobachtungsarbeitsdaten bestimmt, der Aufmerksamkeit geschenkt werden sollte, unter den mehreren der Arbeitsdaten, die durch die Arbeitsdatenspeicherungsverarbeitung gespeichert wurden, und Reihenfolgebestimmungsverarbeitung, welche die Aufnahmereihenfolge der Gegenstände unter Verwendung der Zielbeobachtungsarbeitsdaten bestimmt, die sich innerhalb der Bestimmungsregion befinden, und von Peripheriearbeitsdaten, die sich an der Peripherie der Zielbeobachtungsarbeitsdaten befinden.
  • In einem Beispiel beinhaltet die Bestimmungsregion die Zielbeobachtungsarbeitsdaten und die Peripheriearbeitsdaten, die Positionsdaten aufweisen, die sich innerhalb eines vorbestimmten Bereichs in Bezug auf Positionsdaten der Zielbeobachtungsarbeitsdaten befinden.
  • In einem solchen Fall, bei dem beispielsweise die mehreren der Gegenstände auf der Fördereinrichtung miteinander überlappt sind, ist es nötig, das Aufnehmen von einem Gegenstand durchzuführen, der sich an der höchsten Position befindet. Und daher ist die Aufnahmereihenfolge eine abnehmende Reihenfolge von Höhenpositionsdaten, die eine Position in einer Höhenrichtung zeigen. Allerdings gibt es auf der Fördereinrichtung viele Klumpen der Gegenstände, die miteinander überlappen. Darüber hinaus gibt es auch einen Fall, bei dem die Gegenstände in dem Klumpen von Gegenständen auf der Flussaufwärtsseite höher aufgetürmt sind als der Klumpen der Gegenstände an der äußersten Flussabwärtsseite. In diesem Fall, wenn die Aufnahmereihenfolge durch Einstellen aller Gegenstände, die sich innerhalb eines Sichtwinkels einer Bilderfassungsvorrichtung des Detektionsteils befinden, als Ziele bestimmt wird, werden die Gegenstände bevorzugterweise von dem höchsten Klumpen der Gegenstände aufgenommen und nicht von dem Klumpen der Gegenstände an der äußersten Flussabwärtsseite. Auf diese Weise werden viele der Gegenstände, die an der äußersten Flussabwärtsseite platziert sind, auf der Fördereinrichtung belassen, was unerwünscht ist.
  • In dem obigen Aspekt wird die Bestimmungsregion an der Peripherie in den gespeicherten vielfältigen Arbeitsdaten bestimmt und die Aufnahmereihenfolge wird innerhalb der Bestimmungsregion bestimmt. In einem solchen Fall, bei dem die Arbeitsdaten der Gegenstände an der äußersten Flussabwärtsseite als die Zielbeobachtungsarbeitsdaten verwendet werden, beinhaltet die Bestimmungsregion beispielsweise nur den Klumpen der Gegenstände, der die Gegenstände an der Peripherie der Gegenstände an der äußersten Flussabwärtsseite beinhaltet. Und daher ist es durch angemessenes Einstellen des vorbestimmten Bereichs möglich, die Aufnahmereihenfolge für jeden der Klumpen der Zielbeobachtungsgegenstände zu bestimmen. Mit diesem Aspekt ist es nicht immer nötig, kompliziertes Verarbeiten des Berücksichtigens der Höhe, der Position und dergleichen der anderen Klumpen von Gegenständen durchzuführen, was das Einstellen erleichtert und was zum effektiven Aufnehmen der Gegenstände beiträgt.
  • In dem obigen Aspekt wird die Bestimmungsregion bevorzugt als Reaktion auf Größe, eine Art und Menge der Gegenstände, Bedingung der Gegenstände auf der Fördereinrichtung und dergleichen bestimmt.
  • In dem obigen Aspekt beinhalten die Positionsdaten bevorzugt Höhenpositionsdaten, die eine Position in der Höhenrichtung anzeigen, und Horizontalpositionsdaten, die eine Position in einer Richtung senkrecht zur Höhenrichtung anzeigen, und die Bestimmungsregion beinhaltet die Peripheriearbeitsdaten, die die Horizontalarbeitsdaten aufweisen, welche sich innerhalb des vorbestimmten Bereichs der Zielbeobachtungsarbeitsdaten befinden.
  • Mit diesem Aspekt beinhaltet die Bestimmungsregion die Arbeitsdaten, die die Horizontalpositionsdaten aufweisen, die sich innerhalb eines vorbestimmten Bereichs in Bezug auf die Horizontalpositionsdaten der Zielbeobachtungsarbeitsdaten befinden. Und daher ist es möglich, die Bestimmungsregion ohne komplizierte Verarbeitung angemessen einzustellen.
  • Mit dem obigen Aspekt weisen die Arbeitsdaten bevorzugt eine operationsbezogene Einstufung auf, die sich auf einen Schwierigkeitsgrad der Aufnahmeoperation mit Bezug auf die Gegenstände beziehen.
  • In diesem Aspekt ist es möglich, die Bestimmung auf der Grundlage der operationsbezogenen Einstufung vorzunehmen, wenn die Steuereinheit die Reihenfolgenbestimmungsverarbeitung durchführt. Hinsichtlich der Arbeitsdaten eines Gegenstands, deren operationsbezogene Einstufung beispielsweise niedriger als eine vorbestimmte Referenz ist, was bedeutet, dass der Gegenstand schwer aufzunehmen ist, ist es möglich, eine Verarbeitung durchzuführen, um die Aufnahmereihenfolge zu verzögern, oder um zu bestimmen, den Gegenstand nicht aufzunehmen, was für das effektive Aufnehmen der Gegenstände vorteilhaft ist.
  • In dem obigen Aspekt erstellt die Steuereinheit in der Arbeitsdatenerstellungsverarbeitung bevorzugt die Arbeitsdaten, die ferner eine Einstufung aufweisen, die sich von der operationsbezogenen Einstufung unterscheidet.
  • Es gibt einen Fall, bei dem eine Einstufung, die sich von dem Schwierigkeitsgrad der Aufnahmeoperation unterscheidet, als Reaktion auf eine Art der Gegenstände, einen Zweck der Aufnahmeoperation und dergleichen priorisiert wird. Wenn die Gegenstände beispielsweise verderbliche Lebensmittel sind, werden die Arbeitsdaten, die eine qualitätsbezogene Einstufung, die Qualität, eine Art und dergleichen der Gegenstände zeigt, aufweist, erstellt. Hierdurch ist es möglich, die Bestimmung auf der Grundlage der qualitätsbezogenen Einstufung vorzunehmen, wenn die Steuereinheit die Reihenfolgenbestimmungsverarbeitung vornimmt, und diese Konfiguration ist zum flexiblen Bestimmen der Aufnahmereihenfolge als Reaktion auf den Zweck vorteilhaft.
  • In dem obigen Aspekt bestimmt die Steuereinheit bevorzugt die Aufnahmereihenfolge, um somit die Gegenstände von einer hohen Position auf der Grundlage der Höhenpositionsdaten der Zielbeobachtungsarbeitsdaten und der Peripheriearbeitsdaten in der Reihenfolgebestimmungsverarbeitung aufzunehmen.
  • {Vorteilhafte Auswirkungen der Erfindung}
  • Gemäß der vorliegenden Erfindung ist es möglich, zum effektiven Aufnehmen von Gegenständen, die durch eine Fördereinrichtung bewegt werden, ohne komplizierte Einstellung, beizutragen.
  • Figurenliste
    • {1} 1 ist ein Diagramm, das eine Konfiguration eines Gegenstandsaufnahmesystems gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
    • {2} 2 ist ein Blockdiagramm einer Steuereinheit des Gegenstandsaufnahmesystems gemäß der Ausführungsform.
    • {3} 3 ist eine schematische Ansicht einer Arbeitswarteschlange des Gegenstandsaufnahmesystems gemäß der Ausführungsform.
    • {4} 4 ist ein Diagramm, das einen Zustand der Gegenstände auf einer Fördereinrichtung des Gegenstandsaufnahmesystems der Ausführungsformen zeigt.
    • {5} 5 ist eine schematische Ansicht einer Arbeitswarteschlange des Gegenstandsaufnahmesystems gemäß der Ausführungsform.
    • {6} 6 ist eine schematische Ansicht einer Arbeitswarteschlange des Gegenstandsaufnahmesystems gemäß der Ausführungsform.
    • {7} 7 ist ein Diagramm, das schematisch eine Bestimmungsregion zeigt, die durch das Gegenstandsaufnahmesystem der Ausführungsform eingestellt ist. {Beschreibung der Ausführungsformen}
  • Ein Gegenstandsaufnahmesystem gemäß einer ersten Ausführungsform der vorliegenden Erfindung wird nachstehend unter Bezugnahme auf die begleitenden Zeichnungen beschrieben.
  • In einem Beispiel ist das Gegenstandsaufnahmesystem gemäß dieser Ausführungsform ein Robotersystem, das in 1 gezeigt ist. Dieses Gegenstandsaufnahmesystem beinhaltet eine Fördereinrichtung (ein Fördermittel) 10, eine Detektionsvorrichtung (eine Detektionseinheit) 20, einen Roboter 30 und eine Steuereinheit 40, welche den Roboter 30 steuert. Der Roboter (eine Arbeitsmaschine) 30 führt die Aufnahmeoperation mit Bezug auf Gegenstände O durch, die mittels der Fördereinrichtung 10 bewegt werden. Ein Werkzeug T ist an einem distalen Endteil des Roboters 30 vorgesehen und der Roboter 30 verwendet in einem Beispiel das Werkzeug T, um damit Aufnehmen des Gegenstands O auf der Fördereinrichtung 10 durchzuführen. Bei dieser Ausführungsform entsprechen eine Förderrichtung der Fördereinrichtung 10 und eine X-Achsenrichtung eines Referenzkoordinatensystems 201 von 1 einander, entsprechen eine Höhenrichtung der Fördereinrichtung 10 und eine Z-Achsenrichtung des Referenzkoordinatensystems 201 von 1 einander, und wird eine Y-Achsenrichtung des Referenzkoordinatensystems 201 von 1 so gewählt, dass es einer Breitenrichtung der Fördereinrichtung 10 entspricht. Die Steuereinheit 40 kann durch eine einzige Steuerung ausgebildet sein oder kann durch mehrere Steuerungen ausgebildet sein.
  • Der Roboter 30 ist nicht auf einen spezifischen Typ von Roboter beschränkt, allerdings ist der Roboter 30 gemäß dieser Ausführungsform ein Vertikalgelenkroboter, der mehrere Servomotoren 31 (siehe 2) zum jeweiligen Antreiben mehrerer beweglicher Teile aufweist. Auch ist ein Arm 30a des Roboters 30 durch die mehreren beweglichen Teile ausgebildet. Jeder der Servomotoren 31 weist eine Betriebspositionsdetektionsvorrichtung auf, um eine Betriebsposition von jedem der Servomotoren 31 zu detektieren, und ein Beispiel für die Betriebspositionsdetektionsvorrichtung ist ein Encoder. Detektierte Werte der Betriebspositionsdetektionsvorrichtung werden an die Steuereinheit 40 gesendet. Der Roboter 30 kann ein Horizontalgelenkroboter, ein Multiverbindungsroboter und dergleichen sein.
  • In einem Beispiel beinhaltet die Steuereinheit 40, wie in 2 gezeigt ist, einen Prozessor 41, der eine CPU und dergleichen ist, eine Anzeigevorrichtung 42, eine Speicherungseinheit 43, die eine nichtflüchtige Speicherungsvorrichtung, ein ROM, ein RAM und dergleichen aufweist, mehrere Servosteuerungen 44, die jeweils einem der Servomotoren 31 des Roboters 30 entsprechen, und eine Eingabevorrichtung 45, die ein Touchpanel und dergleichen ist.
  • Ein Systemprogramm 43a ist in der Speicherungseinheit 43 gespeichert und das Systemprogramm 43a stellt eine Grundfunktion der Steuereinheit 40 bereit. Auch sind ein Arbeitsdatenerstellungsprogramm 43b, ein Arbeitsdatenspeicherungsprogramm 43c, ein Regionenbestimmungsprogramm 43d und ein Reihenfolgenbestimmungsprogramm 43e in der Speicherungseinheit 43 gespeichert. Und ein Betriebsprogramm und ein Folgesteuerungsprogramm sind auch in der Speicherungseinheit 43 gespeichert. Auf der Grundlage von jedem der Programme steuert der Prozessor 41 die Servomotoren 31 des Roboters 30 und das Werkzeug T und hierdurch wird die Aufnahmeoperation der Gegenstände O, die durch die Fördereinrichtung 10 bewegt werden, durchgeführt.
  • Darüber hinaus führt die Detektionsvorrichtung 20 die unten beschriebene Detektion an einer Betriebsposition des Roboters 30 oder auf einer Flussaufwärtsseite des Betriebs in der Förderrichtung aus.
  • Die Detektionsvorrichtung 20 beinhaltet eine Bilderfassungsvorrichtung 20a und die Bilderfassungsvorrichtung 20a ist eine zweidimensionale Kamera, eine dreidimensionale Kamera oder dergleichen. Ein dreidimensionaler Distanzsensor und dergleichen kann anstelle der Bilderfassungsvorrichtung 20 verwendet werden und es ist auch möglich, einen anderen Sensor zu verwenden, der in der Lage ist zum Erhalten von Daten zum Detektieren einer Position und einer Orientierung der Gegenstände O. Die Bilderfassungsvorrichtung 20a dieser Ausführungsform ist eine dreidimensionale Kamera (eine Stereo-Kamera) und die Bilderfassungsvorrichtung 20a wird durch einen Rahmen und dergleichen, der nicht gezeigt ist, an der Oberseite der Fördereinrichtung 10 gehalten. Die Detektionsvorrichtung 20 beinhaltet beispielsweise eine Beleuchtungsvorrichtung 20b, die sichtbares Licht ausstrahlt, um eine Bilderfassungsposition der Bilderfassungsvorrichtung 20 zu beleuchten, und die Beleuchtungsvorrichtung 20b strahlt nur dann Licht ab, wenn die Bilderfassungsvorrichtung 20a Bilder aufnimmt.
  • Die Detektionsvorrichtung 20 beinhaltet einen Prozessor 21, ein RAM 22 und einen Arbeitsspeicher 23, in welchem ein Bildverarbeitungsprogramm 23a gespeichert ist. Auf der Grundlage des Bildverarbeitungsprogramms 23a führt der Prozessor 21 beispielsweise eine Musterabgleichsverarbeitung, eine Blob-Verarbeitung, eine Orientierungsdetektionsverarbeitung, die auf einer Position eines Merkmalspunkts basiert, und dergleichen durch. Detektionsdaten (ein erstes Datenelement), die durch die Detektionsvorrichtung 20 erhalten werden, werden an die Steuereinheit 40 gesendet. Die Detektionsdaten beinhalten zumindest Positionsdaten von jedem der Gegenstände O in der X-Achsenrichtung (Horizontalpositionsdaten), Positionsdaten von jedem der Gegenstände in der Y-Achsenrichtung (Horizontalpositionsdaten), und Positionsdaten von jedem der Gegenstände in der Z-Achsenrichtung (Höhenpositionsdaten), und die Detektion kann ferner Orientierungsdaten von jedem der Gegenstände O beinhalten.
  • Auf der Grundlage des Bildverarbeitungsprogramms 23a führt die Detektionsvorrichtung 20 beispielsweise einen Operationsbezogene-Daten-Erhaltungsprozess durch, der einen Übereinstimmungsgrad (operationsbezogene Einstufung) zwischen einer Gestalt eines vorbestimmten Teils, welche durch die Musterabgleichverarbeitung detektiert wird, und einer vorbestimmten Modellgestalt ergibt. In einem solchen Fall, bei dem der vorbestimmte Teil ein Teil ist, der von dem Werkzeug T gehalten wird, variiert ein Schwierigkeitsgrad beim Halten des vorbestimmten Teils mittels des Werkzeugs T in Abhängigkeit von einer Gestalt des vorbestimmten Teils. Und daher zeigt die Einstufung, welche hinsichtlich jedem der Gegenstände O durch Durchführen des Operationsbezogene-Daten-Erhaltungsprozesses erhalten wird, den Schwierigkeitsgrad der Operation hinsichtlich jedem der Gegenstände O an. Die operationsbezogenen Daten (das zweite Datenelement), die die operationsbezogene Einstufung (einen Index) beinhalten, die durch die zweite Detektionsvorrichtung 20 erhalten wird, werden an die Steuereinheit 40 gesendet.
  • Darüber hinaus ist es auch möglich, die operationsbezogene Einstufung von jedem der Gegenstände O auf der Grundlage der Position von jedem der Gegenstände O in der Y-Achsenrichtung zu erhalten. Beispielsweise ist es in vielen Fällen schwierig, in der Y-Achsenrichtung die Operation an einer Seite durchzuführen, die von dem Roboter 10 entfernt ist, und es ist leicht, die Operation an einer Seite durchzuführen, die dem Roboter 10 nahe ist. Aus diesem Grunde ist es möglich, durch Bestimmen der operationsbezogenen Einstufung als Reaktion auf die Positionsdaten von jedem der Gegenstände O in der Y-Achsenrichtung, Genauigkeit und Sicherheit der Operation zu verbessern.
  • Zusätzlich ist es auch möglich, die operationsbezogene Einstufung auf der Grundlage der Orientierung von jedem der Gegenstände O zu erhalten. Wegen der Gestalt der Gegenstände O, der Gestalt des Werkzeugs T des Roboters 30 und dergleichen kann es eine derartige Orientierung des Gegenstands O geben, für die es für den Roboter 30 schwierig ist, die Operation durchzuführen. In diesem Fall können die Genauigkeit und die Sicherheit der Operation des Roboters 30 durch Bestimmen der operationsbezogenen Einstufung auf der Grundlage einer operationsbezogenen Einstufung basierend auf der Orientierung des Gegenstands O verbessert werden.
  • Darüber hinaus kann der Prozessor 21 der Detektionsvorrichtung 20 einen Operationsbezogene-Daten-Erhaltungsprozess zum Erhalten eines Grads an Übereinstimmung (qualitätsbezogene Einstufung) zwischen einer Gestalt des detektierten Gegenstands O und der Gestalt des vorbestimmten Modells durchführen. Wenn die Gegenstände beispielsweise verderbliche Nahrungsmittel sind, ändert sich die Gestalt des Gegenstands O in Abhängigkeit vom Frischegrad des Nahrungsmittels, ob das Nahrungsmittel verdorben ist oder nicht, und dergleichen. In diesem Fall erhält die Detektionsvorrichtung 20 die qualitätsbezogene Einstufung hinsichtlich der Qualität von jedem der Gegenstände und sendet die qualitätsbezogenen Daten (das zweite Datenelement) einschließlich der erhaltenen qualitätsbezogenen Einstufung an die Steuereinheit 40.
  • Die Fördereinrichtung 10 beinhaltet einen Encoder 10a, der eine Fördermenge der Gegenstände O detektieren kann. Der Encoder 10a ist beispielsweise im Innern eines Motors 10b vorgesehen, der die Fördereinrichtung 10 antreibt.
  • In einem Beispiel führt die Detektionsvorrichtung 20 den Positionsdetektionsprozess, den Orientierungsdetektionsprozess, den Operationsbezogene-Daten-Erhaltungsprozess und den Qualitätsbezogene-Daten-Erhaltungsprozess der Gegenstände O jedes Mal durch, wenn eine vorbestimmte Fördermenge durch den Encoder 10a detektiert wird.
  • Auf der Grundlage des Arbeitsdatenerstellungsprogramms 43b erstellt der Prozessor 41 der Steuereinheit 40 die Arbeitsdaten, die die mehreren Detektionsdaten (das erste Datenelement), die entsprechenden operationsbezogenen Daten (das zweite Datenelement) und die entsprechenden qualitätsbezogenen Daten (das zweite Datenelement) hinsichtlich jedem der Gegenstände O beinhalten. Die detektierten Daten beinhalten die Positionsdaten der Gegenstände O. Und der Prozessor 41 speichert auf der Grundlage des Arbeitsdatenspeicherungsprogramms 43c die erstellten Arbeitsdaten in der Speicherungseinheit 43. In einem Beispiel werden die Arbeitsdaten in einer Arbeitswarteschlange gespeichert und die mehreren Arbeitsdaten werden auf der Grundlage der Positionsdaten davon in der Arbeitswarteschlange in einer Reihe angeordnet. Insbesondere werden die mehreren Arbeitsdaten in der Arbeitswarteschlange in einer Reihenfolge in einer Reihe von der Flussabwärtsseite der Fördereinrichtung 10 in der Förderrichtung angeordnet(siehe die schematische Ansicht von 3). In 3 beinhaltet jede der Arbeitsdaten nur die operationsbezogene Einstufung, wobei allerdings jede der Arbeitsdaten die qualitätsbezogene Einstufung beinhalten kann.
  • 4 zeigt einen Zustand, in welchem es mehrere Gegenstände O1 bis O8 gibt, die sich auf der Fördereinrichtung 10 innerhalb eines Sichtwinkels der Detektionsvorrichtung 20 befinden. In dem Beispiel von 4 ist der Gegenstand O3 mit dem Gegenstand O1 und dem Gegenstand O2 in der Z-Achsenrichtung überlappt, und der Gegenstand O6 ist mit dem Gegenstand O4 und dem Gegenstand O5 in der Z-Achsenrichtung überlappt. Und daher sind die Positionsdaten des Gegenstands O3 in der Z-Achsenrichtung (die Höhenpositionsdaten) größer als die Höhenpositionsdaten des Gegenstands O1 und des Gegenstands O2 , und die Höhenpositionsdaten des Gegenstands O6 sind größer als die des Gegenstands O4 und des Gegenstands O5 . Bei dieser Ausführungsform sind die Höhenpositionsdaten des Gegenstands O3 und des Gegenstands O6 größer als die der Gegenstände O1 , O2 , O4 , O5 , O7 , O8 .
  • Auf der Grundlage des Regionsbestimmungsprogramms 43d bestimmt der Prozessor 41 der Steuereinheit 40 eine Bestimmungsregion, wie in 5 gezeigt ist. Die Bestimmungsregion wird durch Zielbeobachtungsarbeitsdaten, denen Aufmerksamkeit geschenkt werden sollte, und Peripheriearbeitsdaten, die die Horizontalarbeitsdaten aufweisen, welche sich hinsichtlich der Horizontalpositionsdaten der Zielbeobachtungsarbeitsdaten innerhalb eines vorbestimmten Bereichs befinden, konfiguriert. Die Horizontalpositionsdaten sind Positionsdaten in der X-Achsenrichtung und der Y-Achsenrichtung. In dem Beispiel von 5 sind die Zielbeobachtungsarbeitsdaten die Arbeitsdaten des Gegenstands O1 . Es ist möglich, eine Referenz für die Zielbeobachtungsarbeitsdaten angemessen einzustellen, auf der Grundlage davon, ob sich die Position äußerst flussabwärts befindet, die Arbeitsdaten, die höchste Einstufung aufweisen, eine Kombination davon.
  • Bei dieser Ausführungsform ändert der Prozessor 41 in einem solchen Falle, bei dem die Arbeitsdaten des Gegenstands O3 , dessen Horizontalpositionsdaten größer als die Arbeitsdaten des Gegenstands O1 (Zielbeobachtungsarbeitsdaten) in der Bestimmungsregion sind, die Zielbeobachtungsarbeitsdaten auf die Arbeitsdaten des Gegenstands O3 (6). Durch Ändern der Zielbeobachtungsarbeitsdaten wird die Bestimmungsregion auch auf neue Zielbeobachtungsarbeitsdaten und neue Peripheriearbeitsdaten, welche sich innerhalb des vorbestimmten Bereichs von den Horizontalpositionsdaten der neuen Zielbeobachtungsarbeitsdaten befinden, geändert. Nach Ändern der Zielbeobachtungsarbeitsdaten auf die oben beschriebene Weise können die Zielbeobachtungsarbeitsdaten ferner auf die gleiche Weise geändert werden. Durch dies wird die Bestimmungsregion angemessen eingestellt, ohne eine komplizierte Verarbeitung zu benötigen und zusätzlich wird die Bestimmungsregion, die um einen Gegenstand O herum zentriert ist, der die höchste Priorität (ein Gegenstand an der höchsten Position) unter einem Klumpen von Gegenständen O, der auf eine bevorzugte Weise verarbeitet werden muss (ein Klumpen von Gegenständen O auf der äußersten Flussabwärtsseite), aufweist, sicher eingestellt. Die in 7 gezeigte Bestimmungsregion ist die Bestimmungsregion, die schematisch gezeichnet ist.
  • Durch angemessenes Einstellen der Bestimmungsregion als Reaktion auf eine Größe der Gegenstände O, eine Fördergeschwindigkeit der Fördereinrichtung 10, der zum Aufnehmen der jeden der Gegenstände O benötigten Zeit und dergleichen, ist es beispielsweise möglich, die Gegenstände O der Reihe nach von dem Klumpen der Gegenstände O an der Flussabwärtsseite effizient aufzunehmen. Auch wird in einem solchen Falle, bei dem ein weiterer Roboter an der Flussabwärtsseite des Roboters 30 vorgesehen ist, die Aufnahmereihenfolge unter Berücksichtigung des anderen Roboters bestimmt und es kann einen Fall geben, bei dem der Roboter 30 nicht alle der Gegenstände O von jedem der Klumpen aufnimmt.
  • Nachfolgend verwendet der Prozessor 41 die Arbeitsdaten (Zielbeobachtungsarbeitsdaten) des Gegenstands O3 , der sich innerhalb der Bestimmungsregion befindet, und die Arbeitsdaten (die Peripheriearbeitsdaten) des Gegenstands O1 und des Gegenstands O2 , welche die anderen Arbeitsdaten innerhalb der Bestimmungsregion sind, um somit die Aufnahmereihenfolge der Gegenstände O1 , O2 , O3 zu bestimmen, welche sich innerhalb der Bestimmungsregion befinden. Die Referenz, die verwendet wird, um somit die Aufnahmereihenfolge zu bestimmen, sind die Höhenpositionsdaten, die operationsbezogene Einstufung, die qualitätsbezogene Einstufung und dergleichen. Bei dieser Ausführungsform ist die Referenz der höchsten Priorität die abfallende Reihenfolge der Positionsdaten und die Referenz der zweiten Priorität ist die Reihenfolge, die sich auf die Distanz von dem Stromabwärts bezieht, und die Referenz der dritten Priorität ist die abfallende Reihenfolge der Einstufung. Die oben beschriebene Referenz und die Reihenfolge können angemessen geändert werden.
  • Der Prozessor 41 führt die oben beschriebene Verarbeitung hinsichtlich der anderen Klumpen der Gegenstände O sequentiell durch. Beispielsweise wird nach Durchführen der oben beschriebenen Verarbeitung hinsichtlich des Klumpens der Gegenstände O4 , O5 , O6 , die oben beschriebene Verarbeitung an dem Klumpen der Gegenstände O7 , O8 durchgeführt.
  • Wie in 7 gezeigt ist, gibt es die anderen Gegenstände O4 , O5 , O6 , die in der Nähe der Gegenstände O1 , O2 , O3 angehäuft sind, und daher ist die Bestimmungsregion als Reaktion auf die Größe der Gegenstände O angemessen eingestellt. In einem derartigen Fall, bei dem die Arbeitsdaten der Gegenstände O4 , O5 , O6 beispielsweise zur Zeit der Bestimmung der Aufnahmereihenfolge in der Bestimmungsregion enthalten sind, wird die Aufnahmereihenfolge des Gegenstands O6 sekundär, was möglicherweise nicht wünschenswert ist. Die Steuereinheit 40 akzeptiert die Einstellung der Bestimmungsregion von der Eingabeeinheit 45, einem anderen Computer und dergleichen. Dementsprechend kann ein Bediener den vorbestimmten Bereich als Reaktion auf eine Art und Menge der Gegenstände O, Bedingung der Gegenstände O auf der Fördereinrichtung 10 und dergleichen angemessen einstellen.
  • Auch kann die Bestimmungsregion ein Kreis, eine beliebige Gestalt oder eine Kombination von mehreren von beliebigen Gestalten und dergleichen sein. Zusätzlich kann die Bestimmungsregion als Reaktion auf die Größe, die Art und die Menge der Gegenstände O, die Bedingung der Gegenstände O auf der Fördereinrichtung 10 und dergleichen angemessen bestimmt werden.
  • Bei dieser Ausführungsform werden die Bestimmungsregion, die durch die Zielbeobachtungsarbeitsdaten, denen Aufmerksamkeit geschenkt werden sollte, und mindestens eine der Peripheriearbeitsdaten, die die Positionsdaten aufweist, welche sich innerhalb des vorbestimmten Bereichs hinsichtlich der Positionsdaten der Zielbeobachtungsarbeitsdaten unter den mehreren der gespeicherten Arbeitsdaten befinden, bestimmt und wird die Aufnahmereihenfolge innerhalb der Bestimmungsregion bestimmt. Wenn beispielsweise die Arbeitsdaten des Gegenstands O1 , der sich an der äußersten Flussabwärtsseite befindet, als die Zielbeobachtungsarbeitsdaten verwendet werden, sind nur die Klumpen der Gegenstände O1 , O2 , O3 , welche sich an der Peripherie des äußerst flussabwärtsseitigen Gegenstands O1 befinden, in der Bestimmungsregion enthalten. Daher ist es durch angemessene Einstellung des vorbestimmten Bereichs möglich, die Aufnahmereihenfolge für jeden der Klumpen der Zielbeobachtungsgegenstände O zu bestimmen. In diesem Aspekt ist es nicht immer nötig, kompliziertes Verarbeiten, das die Höhe, die Position und dergleichen von jedem der Gegenstände O berücksichtigt, durchzuführen, was das Einstellen erleichtert und was zum effektiven Aufnehmen der Gegenstände O beiträgt.
  • Auch beinhalten die Positionsdaten, welche durch jede der Arbeitsdaten gehalten werden, bei dieser Ausführungsform Höhenpositionsdaten und die Horizontalpositionsdaten und die Bestimmungsregion beinhaltet die Arbeitsdaten, welche die Horizontalpositionsdaten aufweisen, welche sich innerhalb des vorbestimmten Bereichs hinsichtlich der Horizontalpositionsdaten der Zielbeobachtungsarbeitsdaten befinden. Und daher ist es möglich, die Bestimmungsregion, ohne die komplizierte Verarbeitung zu benötigen, angemessen einzustellen.
  • Darüber hinaus weisen die Arbeitsdaten bei dieser Ausführungsform die operationsbezogene Einstufung auf, die sich auf einen Schwierigkeitsgrad der Aufnahmeoperation mit Bezug auf den Gegenstand O bezieht.
  • Mit dieser Konfiguration ist es möglich, die Bestimmung auf der Grundlage der operationsbezogenen Einstufung vorzunehmen, wenn die Steuereinheit 40 die Reihenfolgenbestimmungsverarbeitung durchführt. Hinsichtlich der Arbeitsdaten eines Gegenstands O, der schwer aufzunehmen ist, weil die operationsbezogene Einstufung niedriger als eine vorbestimmte Referenz ist, ist es beispielsweise möglich, zu bestimmen, eine Verarbeitung durchzuführen, um somit die Aufnahmereihenfolge des Gegenstands O zu verringern, oder zu bestimmen, die Aufnahmeoperation für den Gegenstand O nicht durchzuführen, was für das effektive Aufnehmen der Gegenstände O vorteilhaft ist.
  • Zusätzlich erstellt die Steuereinheit 40 bei dieser Ausführungsform zur Zeit der Erstellung der Arbeitsdaten Arbeitsdaten, die eine Einstufung aufweisen, die sich von der operationsbezogenen Einstufung unterscheidet.
  • Als Reaktion auf eine Art der Gegenstände O, einen Zweck der Aufnahmeoperation und dergleichen, gibt es einen Fall, bei dem eine Einstufung, die sich von dem Schwierigkeitsgrad der Aufnahmeoperation unterscheidet, priorisiert wird. Wenn die Gegenstände O beispielsweise verderbliche Lebensmittel sind, werden die Arbeitsdaten, die die qualitätsbezogene Einstufung aufweisen, die Qualität, eine Art und dergleichen der Gegenstände O zeigt, erstellt. Hierdurch ist es möglich, die Bestimmung auf der Grundlage der qualitätsbezogenen Einstufung vorzunehmen, wenn die Steuereinheit 40 die Reihenfolgenbestimmungsverarbeitung vornimmt, und diese Konfiguration ist zum flexiblen Bestimmen der Aufnahmereihenfolge als Reaktion auf den Zweck vorteilhaft.
  • Und bei dieser Ausführungsform ist es auch möglich, die Fördermenge der Gegenstände O durch Verwendung einer Kamera anstelle von Verwendung des Encoders 10a zu detektieren. Beispielsweise ist es möglich, die Fördermenge der Gegenstände O durch Detektieren einer Markierung, des Gegenstands O und dergleichen auf der Fördereinrichtung 10 mittels der Kamera zu detektieren. Es ist auch möglich, die Fördermenge unter Verwendung anderer Mittel zu detektieren.
  • Auch kann bei dieser Ausführungsform anstelle der Fördereinrichtung 10 ein anderer Roboter, ein fahrerloses Flurförderzeug (Automated Guided Vehicle - AGV) die Gegenstände O transportieren. In diesem Fall kann auch derselbe wie oben beschriebene Effekt erzielt werden. Und in einem solchen Fall, bei dem der Gegenstand O ein Fahrzeug, ein Rahmen eines Fahrzeugs und dergleichen ist, kann der Gegenstand, an welchem vorbestimmte Verarbeitung durchgeführt wird, durch einen Motor, Räder und dergleichen des Fahrzeugs, des Rahmens des Fahrzeugs und dergleichen bewegt werden. In diesen Fällen fungieren der andere Roboter, der Motor, die Räder und dergleichen als die Fördermittel.
  • Auch kann bei dieser Ausführungsform eine Funktion, die durch das Bildverarbeitungsprogramm 23a der Detektionsvorrichtung 20 durchgeführt wird, durch die Steuereinheit 40 oder den anderen Computer durchgeführt werden.
  • Und in dieser Ausführungsform bestimmt der Prozessor 41 der Steuereinheit 40 die Bestimmungsregion in einem solchen Fall, bei dem die mehreren Gegenstände O sich nicht gegenseitig in der Z-Achsenrichtung auf der Fördereinrichtung 10 überlappen, was die Zielbeobachtungsarbeitsdaten und die Peripheriearbeitsdaten auf der Grundlage des Regionenbestimmungsprogramms 43d beinhaltet, und der Prozessor 41 kann die Aufnahmereihenfolge der Gegenstände O in der Bestimmungsregion bestimmen.
  • In diesem Fall ist die Referenz der höchsten Priorität beispielsweise die Reihenfolge von dem Flussabwärts und die Referenz der zweiten Priorität ist die Reihenfolge von einer Position, die einen geringen Schwierigkeitsgrad für eine Operation durch den Roboter 30 in der Y-Achsenrichtung aufweist. Es ist auch möglich, den Schwierigkeitsgrad für die Operation in den Arbeitsdaten als die operationsbezogenen Daten hinzuzufügen.
  • Bezugszeichenliste
  • 10
    Fördereinrichtung
    10a
    Encoder
    10b
    Motor
    20
    Detektionsvorrichtung (Detektionsteil)
    20a
    Bilderfassungsvorrichtung
    20b
    Beleuchtungsvorrichtung
    21
    Prozessor
    22
    RAM
    23
    Arbeitsspeicher
    23a
    Bildverarbeitungsprogramm
    30
    Roboter
    30a
    Arm
    31
    Servomotor
    40
    Steuereinheit
    41
    Prozessor
    42
    Anzeigevorrichtung
    43
    Speicherungseinheit
    43a
    Systemprogramm
    43b
    Arbeitsdatenerstellungsprogramm
    43c
    Arbeitsdatenspeicherungsprogramm
    43d
    Regionenbestimmungsprogramm
    43e
    Reihenfolgebestimmungsprogramm
    44
    Servosteuerung
    45
    Eingabevorrichtung
    201
    Referenzkoordinatensystem
    O
    Gegenstand

Claims (6)

  1. Gegenstandsaufnahmesystem, das Folgendes umfasst: ein Detektionsteil, das zumindest eine Position von mehreren Gegenständen detektiert, die durch ein Fördermittel bewegt werden; und eine Steuereinheit, wobei die Steuereinheit Folgendes durchführt: Arbeitsdatenerstellungsverarbeitung, welche Arbeitsdaten erstellt, die zumindest Positionsdaten von jedem der mehreren Gegenstände aufweisen, Arbeitsdatenspeicherungsverarbeitung, welche die mehreren Arbeitsdaten, die durch die Arbeitsdatenerstellungsverarbeitung erstellt werden, speichert, Regionenbestimmungsverarbeitung, welche eine Bestimmungsregion an der Peripherie von Zielbeobachtungsarbeitsdaten bestimmt, der Aufmerksamkeit geschenkt werden sollte, unter den mehreren der Arbeitsdaten, die durch die Arbeitsdatenspeicherungsverarbeitung gespeichert wurden, und Reihenfolgebestimmungsverarbeitung, welche die Aufnahmereihenfolge der Gegenstände unter Verwendung der Zielbeobachtungsarbeitsdaten bestimmt, die sich innerhalb der Bestimmungsregion befinden, und von Peripheriearbeitsdaten, die sich an der Peripherie der Zielbeobachtungsarbeitsdaten befinden.
  2. Gegenstandsaufnahmesystem nach Anspruch 1, wobei die Bestimmungsregion bevorzugt als Reaktion auf Größe, eine Art und Menge der Gegenstände, Bedingung der Gegenstände auf der Fördereinrichtung und dergleichen bestimmt wird.
  3. Gegenstandsaufnahmesystem nach Anspruch 1 oder 2, wobei die Positionsdaten Höhenpositionsdaten, die eine Position in einer Höhenrichtung zeigen, und Horizontalpositionsdaten, die eine Position in einer Richtung senkrecht zu der Höhenrichtung zeigen, beinhalten und die Bestimmungsregion die Peripheriearbeitsdaten, die die Horizontalpositionsdaten aufweisen, die sich innerhalb des vorbestimmten Bereichs in Bezug auf die Horizontalpositionsdaten der Zielbeobachtungsarbeitsdaten befinden, beinhaltet.
  4. Gegenstandsaufnahmesystem nach einem der Ansprüche 1 bis 3, wobei die Arbeitsdaten eine operationsbezogene Einstufung beinhalten, welche sich auf einen Schwierigkeitsgrad der Aufnahmeoperation hinsichtlich der Gegenstände bezieht.
  5. Gegenstandsaufnahmesystem nach Anspruch 4, wobei die Steuereinheit in der Arbeitsdatenerstellungsverarbeitung die Arbeitsdaten, die ferner eine Einstufung aufweisen, die sich von der operationsbezogenen Einstufung unterscheidet, erstellt.
  6. Gegenstandsaufnahmesystem nach Anspruch 3, wobei die Steuereinheit die Aufnahmereihenfolge bestimmt, um somit die Gegenstände von einer hohen Position auf der Grundlage der Höhenpositionsdaten der Zielbeobachtungsarbeitsdaten und der Peripheriearbeitsdaten in der Reihenfolgebestimmungsverarbeitung aufzunehmen.
DE102019122861.1A 2018-08-31 2019-08-26 Gegenstandsaufnahmesystem Active DE102019122861B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018163798A JP7022036B2 (ja) 2018-08-31 2018-08-31 物品取出システム
JP2018-163798 2018-08-31

Publications (2)

Publication Number Publication Date
DE102019122861A1 true DE102019122861A1 (de) 2020-03-05
DE102019122861B4 DE102019122861B4 (de) 2023-12-28

Family

ID=69526933

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019122861.1A Active DE102019122861B4 (de) 2018-08-31 2019-08-26 Gegenstandsaufnahmesystem

Country Status (4)

Country Link
US (1) US11679944B2 (de)
JP (1) JP7022036B2 (de)
CN (1) CN110871443A (de)
DE (1) DE102019122861B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102625661B1 (ko) * 2020-06-23 2024-01-16 세메스 주식회사 물품 보관 장치, 상기 물품 보관 장치의 우선 순위 설정값 계산 방법 및 이를 이용한 물품 저장 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JP4809524B2 (ja) 2000-10-06 2011-11-09 セイコーインスツル株式会社 トラッキング方法、トラッキングシステム、及びトラッキング装置
JP2004160567A (ja) 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP3805302B2 (ja) 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP4087874B2 (ja) 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP5198161B2 (ja) 2008-06-17 2013-05-15 東芝機械株式会社 ハンドリング装置およびワークハンドリング方法
GB2492257B (en) 2008-06-05 2013-02-13 Toshiba Machine Co Ltd Handling system, control device, control method, and program
CN102186638B (zh) * 2008-08-29 2016-03-02 Abb研究有限公司 在工业机器人的手臂末端处的工具的顺应装置
EP2331301B1 (de) * 2008-08-29 2018-10-17 ABB Research Ltd. Ergreifen von teilen aus einem behälter durch einen roboter unter verwendung von kraftrückkopplung
JP5353718B2 (ja) * 2010-01-06 2013-11-27 セイコーエプソン株式会社 制御装置、ロボット、ロボットシステム及びロボットの追従制御方法
JP5659640B2 (ja) * 2010-09-07 2015-01-28 富士電機株式会社 ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP5464176B2 (ja) * 2011-06-20 2014-04-09 株式会社安川電機 ピッキングシステム
CN104395212A (zh) 2012-07-20 2015-03-04 株式会社安川电机 机器人系统及物品移送方法
US9272421B2 (en) 2013-01-07 2016-03-01 Milos Misha Subotincic Visually controlled end effector
US10055670B2 (en) 2014-03-14 2018-08-21 Omron Corporation Image recognition device, image sensor, and image recognition method using feature
JP6387760B2 (ja) 2014-09-18 2018-09-12 株式会社安川電機 ロボットシステム、ロボット装置およびワークピッキング方法
US11040447B2 (en) * 2016-07-15 2021-06-22 Magna International Inc. System and method for adaptive bin picking for manufacturing
JP6553568B2 (ja) 2016-09-28 2019-07-31 ファナック株式会社 複数個の物品をひとつずつ最適な経路で取り出す搬送装置
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
JP6687591B2 (ja) * 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法

Also Published As

Publication number Publication date
US20200071094A1 (en) 2020-03-05
DE102019122861B4 (de) 2023-12-28
CN110871443A (zh) 2020-03-10
US11679944B2 (en) 2023-06-20
JP2020032521A (ja) 2020-03-05
JP7022036B2 (ja) 2022-02-17

Similar Documents

Publication Publication Date Title
AT507339B1 (de) Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
DE102015117241B4 (de) Ansteuerung einer Förderanlage
DE102014016033B4 (de) Vorrichtung und Verfahren zum Aufnehmen von regellos verteilten Gegenständen mit einem Roboter
DE102018124712B4 (de) Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
DE102018132213B4 (de) Artikelübertragungsvorrichtung, Robotersystem und Artikelübertragungsverfahren
DE102013014873B4 (de) Aufnahmevorrichtung, die die Halteposition und -orientierung eines Roboters auf der Grundlage einer Auswahlbedingung bestimmt
DE102006031178B4 (de) Greiferführungssystem, Bearbeitungssystem und Programm
DE102018212531B4 (de) Artikeltransfervorrichtung
DE102018116990A1 (de) Landwirtschaftliche Arbeitsmaschine
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102015002760A1 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102019208187B4 (de) Robotersystem und Steuerungsverfahren für ein Robotersystem
DE102014016072A1 (de) Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters
DE102018121031A1 (de) Landwirtschaftliche Arbeitsmaschine
DE102016107397B4 (de) Bahnanzeigevorrichtung zur darstellung der bahn einer werkzeugachse
DE102012024934B4 (de) Verfahren und Programmiersystem zur erstmaligen Erstellung eines auf einem Messroboter ausführbaren Messprogramms für die Messung eines neuen Messobjekts
DE102019122861A1 (de) Gegenstandsaufnahmesystem
DE102017007737A1 (de) Verfahren und Vorrichtung zum Erfassen einer Abbildung einer Pflanze mit einer Sensoreinrichtung
EP3195992A1 (de) Anordnung und verfahren für die automatisierte erfassung und entnahme von werkstücken aus ungeordneter ansammlung
DE112021001440T5 (de) Dreidimensionales Messgerät, das aus einem von mehreren Kameras aufgenommenen Bild Positionsinformationen für eine Objektoberfläche erzeugt
EP3708945B1 (de) Auswertung von messdaten aus einer vermessung einer mehrzahl von werkstücken
DE102015104587B4 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102019115379A1 (de) Robotersystem und Roboter
DE102019106068B3 (de) System zur beseitigung von überlagerungen zufällig angeordneter werkstücke
AT524802B1 (de) Verfahren zum Ablegen von Halbzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division