DE102018124712B4 - Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter - Google Patents

Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter Download PDF

Info

Publication number
DE102018124712B4
DE102018124712B4 DE102018124712.5A DE102018124712A DE102018124712B4 DE 102018124712 B4 DE102018124712 B4 DE 102018124712B4 DE 102018124712 A DE102018124712 A DE 102018124712A DE 102018124712 B4 DE102018124712 B4 DE 102018124712B4
Authority
DE
Germany
Prior art keywords
conveyor
work
moving platform
secured
conveying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018124712.5A
Other languages
English (en)
Other versions
DE102018124712A1 (de
Inventor
Masafumi OOBA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018124712A1 publication Critical patent/DE102018124712A1/de
Application granted granted Critical
Publication of DE102018124712B4 publication Critical patent/DE102018124712B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/902Devices for picking-up and depositing articles or materials provided with drive systems incorporating rotary and rectilinear movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

Arbeitssystem (1), umfassend:eine Fördervorrichtung (2), die ein Objekt (O) fördert;eine sich bewegende Plattform (13), die bewegt werden kann;eine Arbeitseinrichtung (3), die an der sich bewegenden Plattform (13) gesichert ist und die eine Arbeit an dem Objekt (O) ausführt, das von der Fördervorrichtung (2) gefördert wird;einen optischen Sensor (4), der an der sich bewegenden Plattform (13) gesichert ist und der sukzessive optische Informationen über das Objekt (O), das von der Fördervorrichtung (2) gefördert wird, oder über eine Markierung (MK), die auf der Fördervorrichtung (2) gebildet ist,erfasst;eine Erkennungseinrichtung (8), die sukzessive mindestens Positionen des Objekts (O) oder der Markierung (MK) erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor (4) erfasst werden in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist;eine Berechnungseinrichtung (12), die eine Fördergeschwindigkeit (V) der Fördervorrichtung (2) auf der Grundlage der Positionen des Objekts (O) oder der Markierung (MK) berechnet, die sukzessive von der Erkennungseinrichtung (8) erkannt werden; undeine Antriebssteuereinheit (10), die die Arbeitseinrichtung (3) unter Verwendung der Fördergeschwindigkeit (V) antreibt, in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist.

Description

  • Die vorliegende Erfindung betrifft ein Arbeitssystem, ein Verfahren zum Durchführen von Arbeit an einem Objekt und einen Roboter.
  • Es ist ein Roboter bekannt, der verschiedene Arten von Arbeiten an einem Objekt ausführt, das auf einer Fördervorrichtung gefördert wird. Als Beispiel für einen solchen Roboter gibt es einen Roboter, der auf einer sich bewegenden Plattform montiert ist, die bewegt werden kann, und der Arbeit an dem Objekt ausführt, indem das Objekt mittels einer Kamera, die an einem distalen Ende eines Roboterarms befestigt ist, identifiziert wird (beispielsweise JP 2001 - 121461 A und JP 2016 – 032 843 A).
  • Aus DE 10 2016 115 987 A1 ist ein Koordinatensystemeinstellungsverfahren, eine Koordinatensystemeinstellungsvorrichtung und ein Robotersystem mit Koordinatensystemeinstellungsvorrichtung bekannt. Die Vorrichtung zum Einstellen eines Förderkoordinatensystems in einem Robotersystem umfasst Merkmale, die auf einem beweglichen Teil eines Förderers vorgesehen sind, einen Sensor, der auf einem Roboter vorgesehen ist, einen ersten Koordinatenerfassungsabschnitt, um den Sensor zu veranlassen, Positionen von zwei Merkmalen zu erfassen, wenn sich der bewegliche Teil in einer erster Position befindet, und zwei erste Koordinaten in einem Basiskoordinatensystem des Roboters zu erhalten. Die Vorrichtung umfasst ferner einen Förderungsvorgangsausführungsabschnitt, um den beweglichen Teil zu veranlassen, einen Fördervorgang von der ersten Position zu einer zweiten Position durchzuführen, sowie einen zweiten Koordinatenerfassungsabschnitt, um den Sensor zu veranlassen, eine Position eines Merkmals zu erfassen, wenn sich der bewegliche Teil in der zweiten Position befindet, und eine zweite Koordinate im Basiskoordinatensystem zu erhalten. Ferner umfasst die Vorrichtung einen Koordinatensystembestimmungsabschnitt zum Bestimmen des Förderkoordinatensystems auf der Grundlage einer Förderbetriebsrichtung, zweier erster Koordinaten und einer zweiten Koordinate.
  • Aus DE 10 2015 015 638 A1 ist eine Vorrichtung und ein Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters bekannt. Ein Bildverarbeitungsbereich umfasst einen Artikeldetektierbereich zum Ausführen von Bildaufnahme und -detektion von Artikeln, die sich gemäß einer Förderbewegung einer Fördervorrichtung bewegen. Eine erste Periode ermöglicht, dass sämtliche der Vielzahl von Artikeln aufgenommen und detektiert werden, zum Erlangen einer Information über die Anfangsposition jedes der Artikel. Ein Artikelverfolgungsbereich dient zum Ausführen von Bildaufnahme und -detektion der Vielzahl von Artikeln, die sich gemäß der Förderbewegung der Fördervorrichtung bewegen, wobei eine zweite Periode kürzer ist als die erste Periode. Es werden wiederholt Informationen über die verlagerte Position jedes der Vielzahl von Artikeln mit der zweiten Periode erlangt, wobei die Informationen über die verlagerte Position auf der Information über die Anfangsposition basiert. Ein Robotersteuerbereich ist dazu konfiguriert, den Roboter unter Verwendung der Information über die verlagerte Position zu steuern, um zu bewirken, dass der Roboter jeden der Vielzahl von Artikeln überträgt, während er die Förderbewegung der Fördervorrichtung verfolgt.
  • Aus DE 10 2013 020 135 A1 ist ein Verfahren zum Betreiben einer Produktionsanlage, insbesondere zum Herstellen von Kraftwagen bekannt. Bei dieser Produktionsanlage wird wenigstens ein Werkstück mittels einer Fördereinrichtung in eine Förderrichtung bewegt. Das sich in Förderrichtung bewegende Werkstück wird mittels einer Tiefenbildkamera erfasst und wenigstens ein Signal wird bereitgestellt, welches zumindest eine anhand des Erfassens ermittelte Position des Werkstücks charakterisiert. Ein an einer Bewegungseinrichtung befestigter Roboter wird relativ zum Werkstück bewegt, indem die Bewegungseinrichtung in Abhängigkeit von dem Signal bewegt wird. Das Werkstück wird mittels des Roboters bearbeitet und/oder manipuliert.
  • Aus DE 10 2006 031 178 B4 ist ein Greiferführungssystem, ein Bearbeitungssystem und -programm bekannt. Das Greiferführungssystem umfasst einen Beförderungsabschnitt zum Bewegen eines Trägerabschnitts, auf welchem eine Vielzahl von Artikeln entlang eines Beförderungsweges getragen werden, wodurch die Vielzahl der Artikel gefördert wird. Außerdem umfasst das Greiferführungssystem einen optischen Bildsensor zur mit einem bestimmten Zeitintervall wiederholten Bildaufnahme eines in dem Beförderungsweg festgelegten Bildaufnahmebereichs, zum Erfassen von Bildern in einer Vielzahl von Nachführungsbereichen, welche erzielt werden, indem der Trägerabschnitt in einer Beförderungsrichtung unterteilt wird, und zum Erfassen von relativen Positionen der Artikel innerhalb eines jeden Nachführungsbereichs im Hinblick auf jeden Nachführungsbereich basierend auf jedem erfassten Bild. Das Greiferführungssystem umfasst eine Bewegungsbetrag-Erfassungseinrichtung zum Erfassen eines Bewegungsbetrages des Trägerabschnitts. Das Greiferführungssystem umfasst ferner einen Nachführungsbereich-Überwachungsabschnitt zum Überwachen der Bewegungsbeträge der Vielzahl der Nachführungsbereiche von dem Bildaufnahmebereich basierend auf dem mit der Bewegungsbetrag-Erfassungseinheit erfassten Bewegungsbetrag und dadurch zum Bestimmen eines Kopfseite-Nachführungsbereiches und eines Endseite-Nachführungsbereiches in einem bestimmten Erfassungsbereich. Das Greiferführungssystem umfasst ferner einen Artikel-Auswahlabschnitt zum Auswählen eines eine bestimmte Auswahlbedingung erfüllenden Artikels innerhalb eines mit dem Nachführungsbereich-Überwachungsabschnitt spezifizierten Bereichs von dem Kopfseite-Nachführungsbereich zu dem Endseite-Nachführungsbereich. Außerdem umfasst ist ein Greiferführungsabschnitt zum selektiven Aufnehmen von auf dem Trägerabschnitt getragenen Artikeln und ein Steuerungsabschnitt zum Steuern der Operation des Greiferführungsabschnittes derart, um den mit dem Artikelauswahlabschnitt ausgewählten Artikel aufzunehmen.
  • Aus EP 2 497 611 A2 ist eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungssystem bekannt, mit denen eine Verarbeitung, wie beispielsweise eine Förderverfolgung in einer Produktionslinie, in der ein Allzweckroboter angeordnet ist, vorgenommen werden kann. Es ist ferner eine Führungsvorrichtung umfasst. Die Bildverarbeitungsvorrichtung umfasst eine Verarbeitungseinheit zum Verarbeiten von Positionsinformationen eines Werkstücks auf der Fördervorrichtung, eine Erfassungsvorrichtung zum Durchführen einer Messung an einem Bild, das durch Bilderfassung mit einer Bilderfassungseinheit erhalten wurde, wodurch Positionsinformationen eines Bereichs erhalten werden, der einem vorregistrierten Werkstück in dem Bild entspricht. Die Bildverarbeitungsvorrichtung umfasst ferner eine Aktualisierungseinrichtung zum Aktualisieren von Positionsinformationen der von der Verarbeitungseinheit verarbeiteten Werte des Werkstücks, die einem Zeitpunkt entsprechen, zu dem die Bilderfassungseinheit eine Bilderfassung durchgeführt hat. Ferner umfasst sind Identifizierungsmittel zum Identifizieren eines Werkstücks, das neu in dem Bilderfassungsbereich der Bilderfassungseinheit gefördert wird. Die Identifikation erfolgt durch Vergleich der Positionsinformationen, die durch die Aktualisierungseinheit aktualisiert wurden und Positionsinformationen des Werkstücks, die von der Messvorrichtung erhalten wurden. Mit einer Übertragungseinrichtung werden Positionsinformationen des durch die Identifizierungseinrichtung identifizierten Werkstücks an die Steuervorrichtung übertragen.
  • Aus AT 507 339 B1 ist ein Verfahren und eine Anlage zum Aufnehmen und/oder Bearbeiten von Objekten bekannt. Das Verfahren dient zum sequentiellen Aufnehmen und/oder Bearbeiten von einzelnen Objekten aus einer durch eine Fördervorrichtung bewegten Objektmenge mittels einer Handhabungsvorrichtung, beispielsweise eines Industrieroboters. An der bewegten Objektmenge wird ein Bilderfassungsverfahren ausgeführt und ein Objekterkennungsverfahren dient der Lokalisierung, Identifizierung und Auswahl zumindest eines mit der Handhabungsvorrichtung aufnehmbaren und/oder bearbeitbaren Objekts. Dabei wird ein vom Bilderfassungsverfahren fortlaufend generierter Bildinformationsstrom in Objektmengeninformationen, beispielsweise Objektpunktkoordinaten und Bewegungsinformationen, enthaltende Erkennungsabschnitte der Objektmenge unterteilt und die Identifizierung und Auswahl der mit der Handhabungsvorrichtung aufnehmbaren und/oder bearbeitbaren Objekte erfolgt vom Objekterkennungssystem für einzelne Erkennungsabschnitte.
  • Bei einer Produktionslinie, die eine Fördervorrichtung einsetzt, gibt es Fälle, in denen die Anzahl von Objekten, die in der Produktionslinie gefertigt werden, abhängig von Zeiträumen auf der Grundlage einer Zufuhr-Bedarf-Beziehung zunimmt/abnimmt. Wenn eine feste Anzahl von Robotern in der Produktionslinie in Anbetracht der Zeiträume, in denen eine hohe Anzahl von Objekten gefertigt wird, angeordnet ist, besteht die Gefahr, dass die angeordneten Roboter eine Überkapazität in Zeiträumen verursachen, in denen eine geringere Anzahl von Objekten gefertigt wird. Entsprechend ist es wünschenswert, dass die Anzahl von Robotern, die in der Produktionslinie angeordnet sind, in Übereinstimmung mit den Produktionszeiträumen zunimmt/abnimmt.
  • In der den Roboter einsetzenden Produktionslinie, die in Patentliteratur 1 beschrieben ist, ist eine Ausrüstung wie ein Impulscodierer oder Ähnliches zum Messen der Fördergeschwindigkeit der Fördervorrichtung erforderlich, damit dieser Roboter Arbeit an dem Objekt ausführen kann, das auf der Fördervorrichtung gefördert wird. In dieser Produktionslinie besteht die Gefahr, dass die Ausrüstung wie ein Impulscodierer oder Ähnliches auch eine Überkapazität verursacht. Zusätzlich ist es in dem Fall, in dem ein Impulscodierer eingesetzt wird, erforderlich, den Impulscodierer und den Roboter zu synchronisieren und daher besteht die Gefahr, dass die Zeitmenge, die für die Installationsarbeiten des Roboters erforderlich ist, steigt.
  • Die vorliegende Erfindung wurde im Hinblick auf die zuvor beschriebenen Umstände gemacht, und eine Aufgabe davon ist es, ein Robotersystem, ein Verfahren zum Durchführen von Arbeit an einem Objekt und einen Roboter bereitzustellen, mit dem es möglich ist, eine Zunahme/Abnahme der Anzahl von Produkten, die abhängig von Produktionszeiträumen zu fertigen sind, einfach zu bewältigen.
  • Um die zuvor beschriebene Aufgabe zu lösen, sieht die vorliegende Erfindung die folgenden Lösungen vor.
  • Gemäß der vorliegenden Erfindung wird ein Arbeitssystem bereitgestellt, das Folgendes umfasst: eine Fördervorrichtung, die ein Objekt fördert; eine sich bewegende Plattform, die bewegt werden kann; eine Arbeitseinrichtung, die an der sich bewegenden Plattform gesichert ist und die eine Arbeit an dem Objekt ausführt, das von der Fördervorrichtung gefördert wird; einen optischen Sensor, der an der sich bewegenden Plattform gesichert ist und sukzessive optische Informationen über das Objekt, das von der Fördervorrichtung gefördert wird, oder über eine Markierung, die auf der Fördervorrichtung gebildet ist, erfasst; eine Erkennungseinrichtung, die sukzessive mindestens Positionen des Objekts oder der Markierung erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor erfasst werden in einem Zustand, in welchem die sich bewegende Plattform in der Nachbarschaft der Fördervorrichtung an ihr gesichert ist; eine Berechnungseinrichtung, die eine Fördergeschwindigkeit der Fördervorrichtung auf der Grundlage der Positionen des Objekts oder der Markierung berechnet, die sukzessive von der Erkennungseinrichtung erkannt werden; und eine Antriebssteuereinheit die Arbeitseinrichtung unter Verwendung der Fördergeschwindigkeit antreibt, in einem Zustand, in welchem die sich bewegende Plattform in der Nachbarschaft der Fördervorrichtung an ihr gesichert ist.
  • Gemäß diesem Aspekt der Erfindung erfasst der optische Sensor, wie beispielsweise eine Kamera oder Ähnliches, sukzessive die optischen Informationen über das Objekt, das von der Fördervorrichtung gefördert wird, oder über die Markierung, die auf der Fördervorrichtung gebildet ist. Die Berechnungseinrichtung berechnet die Fördergeschwindigkeit der Fördervorrichtung auf der Grundlage von Änderungen in mindestens den Positionen der Vielzahl von Objekten oder Markierungen, die in den sukzessive erfassten optischen Informationen umfasst sind. Die Antriebssteuereinheit spezifiziert die Position eines Objekts, das von der Fördervorrichtung gefördert wird, indem die Fördergeschwindigkeit verwendet wird, und veranlasst die Arbeitseinrichtung, die Arbeit am spezifizierten Objekt auszuführen.
  • Mit anderen Worten wird gemäß diesem Aspekt der Erfindung die erforderliche Anzahl von Robotern in der Produktionslinie angeordnet, die die Fördereinrichtung umfasst, indem die sich bewegende Plattform bewegt wird. Der optische Sensor und die Arbeitseinrichtung sind an der sich bewegenden Plattform gesichert und somit ändert sich die Position des optischen Sensors in Bezug zur Arbeitseinrichtung nicht, sogar wenn die sich bewegende Plattform bewegt wird. Entsprechend führt die Arbeitseinrichtung die Arbeit an dem Objekt, das auf der Fördervorrichtung gefördert wird, aus, indem die berechnete Fördergeschwindigkeit der Fördervorrichtung verwendet wird, ohne dass ein Impulscodierer oder Ähnliches erforderlich ist, der eine Überkapazität verursacht.
  • Die Aufgabe wird ferner gelöst durch ein Arbeitssystem, das Folgendes umfasst: eine Fördervorrichtung, die ein Objekt fördert; eine sich bewegende Plattform, die bewegt werden kann; eine Arbeitseinrichtung, die an der sich bewegenden Plattform gesichert ist und die eine Arbeit an dem Objekt ausführt, das von der Fördervorrichtung gefördert wird; einen optischen Sensor, der an der sich bewegenden Plattform gesichert ist und sukzessive optische Informationen über das Objekt, das von der Fördervorrichtung gefördert wird, oder über eine Markierung, die auf der Fördervorrichtung gebildet ist, erfasst; eine Erkennungseinrichtung, die sukzessive mindestens Positionen des Objekts oder der Markierung erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor erfasst werden; eine Berechnungseinrichtung, die eine Fördergeschwindigkeit der Fördervorrichtung auf der Grundlage der Positionen des Objekts oder der Markierung berechnet, die sukzessive von der Erkennungseinrichtung erkannt werden; und eine Antriebssteuereinheit die die Arbeitseinrichtung unter Verwendung der Fördergeschwindigkeit antreibt, wobei in dem Fall, in dem das Objekt oder die Markierung nicht in einer Vielzahl der optischen Informationen erkannt wird, die in einem vorbestimmten Zeitraum vom optischen Sensor erfasst werden, die Antriebssteuereinheit die Arbeitseinrichtung antreiben, indem die Fördergeschwindigkeit verwendet wird, die von der Berechnungseinrichtung vor dem vorbestimmten Zeitraum berechnet wurde.
  • Dadurch ist es möglich, sogar wenn es einen Zeitpunkt gibt, an dem das Objekt oder die Markierung nicht vom optischen Sensor erkannt wird, die Arbeit, die von der Arbeitseinrichtung ausgeführt wird, am Objekt weiter auszuführen, das von der Fördervorrichtung in eine Richtung gefördert wird, die dem Blickwinkel des optischen Sensors nachgelagert ist.
  • Gemäß einer Ausführungsform kann die Berechnungseinrichtung einen Betrag der Bewegung des Objekts, das auf der Fördervorrichtung gefördert wird, auf der Grundlage der berechneten Fördergeschwindigkeit berechnen und, indem die Position des Objekts, die von der Erkennungseinrichtung erkannt wird, und der Betrag der Bewegung des Objekts und die Fördergeschwindigkeit, die von der Berechnungseinrichtung berechnet wird, verwendet werden, kann die Antriebssteuereinheit die Arbeitseinrichtung so antreiben, dass die Arbeit am Objekt ausgeführt wird, während dem Objekt, das von der Fördervorrichtung gefördert wird, gefolgt wird.
  • Dadurch werden Schäden oder Ähnliches am Objekt während des Ausführens der Arbeit vermieden oder verhindert, weil die Stoßwirkung, die zu dem Zeitpunkt auftritt, wenn das Objekt, das von der Fördervorrichtung gefördert wird, und die Arbeitseinrichtung in Berührung kommen, reduziert wird.
  • Gemäß einer weiteren Ausführungsform umfasst das Arbeitssystem ferner eine Benachrichtigungseinrichtung, die, in dem Fall, in dem das Objekt oder die Markierung nicht in der Vielzahl der optischen Informationen erkannt wird, die vom optischen Sensor in einem vorbestimmten Zeitraum erfasst werden, eine Benachrichtigung ausgibt, die angibt, dass das Fördern des Objekts auf der Fördervorrichtung angehalten wird oder dass die Fördervorrichtung angehalten wird.
  • In dem Fall, in dem das Objekt oder die Markierung nicht in der optischen Information erkannt wird, ist es vorstellbar, dass die Fördergeschwindigkeit der Fördervorrichtung Null ist oder dass das Objekt, das als Arbeitssubjekt dient, nicht gefördert wird. In diesem Fall verhindert das Ausgeben der Benachrichtigung von der Benachrichtigungseinrichtung einen Unfall und verhindert unnötige Arbeit.
  • Gemäß einer Ausführungsform ist vorgesehen, dass die Antriebssteuereinheit in dem Fall, in dem die Benachrichtigungseinrichtung die Benachrichtigung ausgibt, die Arbeit stoppt, die die Arbeitseinrichtung am Objekt ausführt.
  • Dies verhindert einen Unfall und verhindert unnötige Arbeit.
  • Gemäß einer weiteren Ausführungsform ist vorgesehen, dass die Berechnungseinrichtung als Fördergeschwindigkeit einen Durchschnitt von Geschwindigkeiten einer Vielzahl der Objekte oder einen Durchschnitt einer Vielzahl der Markierungen berechnet.
  • Sogar in dem Fall, in dem Bilder, die von einer Kamera oder Ähnlichem aufgenommen werden, als die optischen Informationen des optischen Sensors verwendet werden, und beispielsweise die Aberration einer Linse davon größere Einflüsse in der Peripherie des Blickwinkels als in seiner Mitte aufweist, wird die Fördergeschwindigkeit der Fördervorrichtung präziser berechnet, indem ein Durchschnitt von Geschwindigkeiten der Vielzahl von Objekten oder Markierungen, die von der Kamera aufgenommen werden, als Fördergeschwindigkeit der Fördervorrichtung verwendet werden.
  • Gemäß einem Beispiel wird ein Arbeitssystem beschrieben, das Folgendes umfasst: eine Fördervorrichtung, die ein Objekt fördert; eine sich bewegende Plattform, die bewegt werden kann; eine Arbeitseinrichtung, die an der sich bewegenden Plattform gesichert ist und die Arbeit am Objekt ausführt, das von der Fördervorrichtung gefördert wird; einen optischen Sensor, der sukzessive optische Informationen des Objekts, das von der Fördervorrichtung gefördert wird, erfasst und der an der sich bewegenden Plattform so gesichert ist, dass ein Blickwinkel davon einen Arbeitsbereich der Arbeitseinrichtung umfasst; eine Erkennungseinrichtung, die sukzessive mindestens Positionen des Objekts im Blickwinkel erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor erfasst werden; und eine Antriebssteuereinheit, die die Arbeitseinrichtung antreibt, indem mindestens die Position des Objekts verwendet wird, die sukzessive von der Erkennungseinrichtung erkannt wird.
  • Gemäß diesem Beispiel erfasst der optische Sensor wie beispielsweise eine Kamera oder Ähnliches sukzessive die optischen Informationen über das Objekt, das von der Fördervorrichtung gefördert wird. Die Erkennungseinrichtung erkennt sukzessive mindestens die Positionen des Objekts im Blickwinkel des optischen Sensors, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor erfasst werden. Die Antriebssteuereinheit veranlasst die Arbeitseinrichtung, die Arbeit am Objekt auszuführen, indem die Positionen des Objekts verwendet werden, die von der Erkennungseinrichtung sukzessive erkannt werden.
  • Mit anderen Worten wird gemäß diesem Beispiel die erforderliche Anzahl von Robotern in der Produktionslinie angeordnet, die die Fördereinrichtung umfasst, indem die sich bewegende Plattform bewegt wird. Der optische Sensor und die Arbeitseinrichtung sind an der sich bewegenden Plattform gesichert und somit ändert sich die Position des optischen Sensors in Bezug zur Arbeitseinrichtung nicht, sogar wenn die sich bewegende Plattform bewegt wird. Entsprechend ist es der Arbeitseinrichtung möglich, die Arbeit am Objekt, das auf der Fördervorrichtung gefördert wird, auszuführen, indem die Positionen des Objekts verwendet werden, die sukzessive von der Erkennungseinrichtung erkannt werden.
  • Die Aufgabe wird ferner gelöst durch ein Verfahren zum Durchführen von Arbeit an einem Objekt, das Folgendes umfasst: einen Schritt des Anordnens einer sich bewegenden Plattform, an der eine Arbeitseinrichtung und ein optischer Sensor in der Nachbarschaft einer Fördervorrichtung gesichert sind, die das Objekt fördert; einen Optische-Informationen-Erfassungsschritt des sukzessiven Erfassens mittels des an der Plattform gesicherten optischen Sensors von optischen Informationen über das Objekt, das von der Fördervorrichtung gefördert wird, oder über eine Markierung, die auf der Fördervorrichtung gebildet ist, in einem Zustand, in welchem die sich bewegende Plattform in der Nachbarschaft der Fördervorrichtung an ihr gesichert ist; einen Erkennungsschritt des sukzessiven Erkennens von mindestens Positionen des Objekts oder der Markierung, indem optische Informationen verarbeitet werden, die vom optischen Sensor erfasst werden; einen Berechnungsschritt des Berechnens einer Fördergeschwindigkeit der Fördervorrichtung auf der Grundlage der sukzessive erkannten Positionen des Objekts und der Markierung; und einen Arbeitsschritt des Ausführens unter Verwendung der Fördergeschwindigkeit der Arbeit an dem Objekt, das von der Fördervorrichtung gefördert wird, mittels der Arbeitseinrichtung, die an der sich bewegenden Plattform gesichert ist, in einem Zustand, in welchem die sich bewegende Plattform in der Nachbarschaft der Fördervorrichtung an ihr gesichert ist.
  • Zusätzlich wird die Aufgabe gelöst durch einen Roboter, der Folgendes umfasst: eine Fördervorrichtung, die ein Objekt fördert; einen optischen Sensor, der an der sich bewegenden Plattform gesichert ist und sukzessive optische Informationen über das Objekt, das von der Fördervorrichtung gefördert wird, oder über eine Markierung, die auf der Fördervorrichtung gebildet ist, erfasst, in einem Zustand, in welchem die sich bewegende Plattform in der Nachbarschaft der Fördervorrichtung an ihr gesichert ist; eine Erkennungseinrichtung, die sukzessive mindestens Positionen des Objekts oder der Markierung erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor erfasst werden; eine Berechnungseinrichtung, die eine Fördergeschwindigkeit der Fördervorrichtung auf der Grundlage der Positionen des Objekts oder der Markierung berechnet, die sukzessive von der Erkennungseinrichtung erkannt werden; und eine Antriebssteuereinheit, die eine Arbeitseinrichtung antreibt, indem die Fördergeschwindigkeit verwendet wird, in einem Zustand, in welchem die sich bewegende Plattform in der Nachbarschaft der Fördervorrichtung an ihr gesichert ist.
  • Ferner wird die Aufgabe gelöst durch ein Verfahren für die Durchführung von Arbeit an einem Objekt, das Folgendes umfasst: einen Schritt des Anordnens einer sich bewegenden Plattform, an der eine Arbeitseinrichtung und ein optischer Sensor in der Nachbarschaft einer Fördervorrichtung gesichert sind, die das Objekt fördert; einen Optische-Informationen-Erfassungsschritt des sukzessiven Erfassens mittels des an der Plattform gesicherten optischen Sensors von optischen Informationen über das Objekt, das von der Fördervorrichtung gefördert wird, oder über eine Markierung, die auf der Fördervorrichtung gebildet ist; einen Erkennungsschritt des sukzessiven Erkennens von mindestens Positionen des Objekts oder der Markierung, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor erfasst werden; einen Berechnungsschritt des Berechnens einer Fördergeschwindigkeit der Fördervorrichtung auf der Grundlage der sukzessive erkannten Positionen des Objekts und der Markierung; und einen Arbeitsschritt des Ausführens unter Verwendung der Fördergeschwindigkeit der Arbeit an dem Objekt, das von der Fördervorrichtung gefördert wird, mittels der Arbeitseinrichtung, die an der sich bewegenden Plattform gesichert ist, wobei, in dem Fall, in dem das Objekt oder die Markierung nicht in einer Vielzahl der optischen Informationen erkannt wird, die in einem vorbestimmten Zeitraum vom optischen Sensor erfasst werden, in dem Arbeitsschritt die Arbeitseinrichtung angetrieben wird, indem die Fördergeschwindigkeit verwendet wird, die von der Berechnungseinrichtung vor dem vorbestimmten Zeitraum berechnet wurde.
  • Schließlich wird die Aufgabe gelöst durch einen Roboter, umfassend: eine Fördervorrichtung, die ein Objekt fördert; einen optischen Sensor, der an der sich bewegenden Plattform gesichert ist und der sukzessive optische Informationen über das Objekt, das von der Fördervorrichtung gefördert wird, oder über eine Markierung, die auf der Fördervorrichtung gebildet ist, erfasst; eine Erkennungseinrichtung, die sukzessive mindestens Positionen des Objekts oder der Markierung erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor erfasst werden; eine Berechnungseinrichtung, die eine Fördergeschwindigkeit der Fördervorrichtung auf der Grundlage der Positionen des Objekts oder der Markierung berechnet, die sukzessive von der Erkennungseinrichtung erkannt werden; und eine Antriebssteuereinheit, die eine Arbeitseinrichtung unter Verwendung der Fördergeschwindigkeit antreibt, wobei, in dem Fall, in dem das Objekt oder die Markierung nicht in einer Vielzahl der optischen Informationen erkannt wird, die in einem vorbestimmten Zeitraum vom optischen Sensor erfasst werden, die Antriebssteuereinheit die Arbeitseinrichtung antreibt, indem die Fördergeschwindigkeit verwendet wird, die von der Berechnungseinrichtung vor dem vorbestimmten Zeitraum berechnet wurde.
  • Die vorliegende Erfindung bietet dahingehend einen Vorteil, dass es möglich ist, eine Zunahme/Abnahme der Anzahl von Produkten, die abhängig von Produktionszeiträumen zu fertigen sind, einfach zu bewältigen.
  • Figurenliste
    • 1 ist eine Darstellung einer Gesamtausgestaltung, die ein Robotersystem gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt.
    • 2 ist ein Blockdiagramm, das eine Steuereinheit zeigt, die im Robotersystem von 1 vorgesehen ist.
    • 3 ist ein Diagramm, das Änderungen über die Zeit und die Fördergeschwindigkeit von Bildern zeigt, die von einer Kamera des Robotersystems von 1 erfasst werden.
    • 4 ist ein Flussdiagramm eines Verfahrens zum Durchführen von Arbeit an einem Objekt O.
    • 5 ist eine Darstellung einer Gesamtausgestaltung, die ein Robotersystem gemäß einer zweiten Ausführungsform zeigt.
    • 6 ist eine Darstellung einer Gesamtausgestaltung, die ein Robotersystem gemäß einer dritten Ausführungsform zeigt.
    • 7 ist ein Diagramm ähnlich wie in 3, das einen Fall zeigt, in dem Bilder von einer Vielzahl von Objekten im gleichen Sichtfeld im Robotersystem von 1 aufgenommen werden.
  • Beschreibung der Ausführungsformen
  • Ein Robotersystem (Arbeitssystem) 1 gemäß einer ersten Ausführungsform der vorliegenden Erfindung wird nachfolgend mit Bezug auf die Zeichnungen beschrieben. 1 zeigt das Robotersystem 1 gemäß dieser Ausführungsform, umfassend eine Produktionslinie zum Fertigen eines Objekts O. Das Robotersystem 1 ist versehen mit: einem Förderer (Fördervorrichtung) 2, der das Objekt O fördert; einer sich bewegenden Plattform 13, die in der Nachbarschaft des Förderers 2 installiert ist und bewegt werden kann; einer Kamera (optischer Sensor) 4, die über der sich bewegenden Plattform 13 gesichert ist und die Bilder vom Objekt O aufnimmt, das vom Förderer 2 gefördert wird; einem Roboter (Arbeitseinrichtung) 3, der über der sich bewegenden Plattform 13 gesichert ist und verschiedene Arten von Arbeit am Objekt O ausführt, das vom Förderer 2 gefördert wird; und einer Steuereinheit 5, die den Roboter 3 steuert und die auch das Verarbeiten oder Ähnliches von den Bildern ausführt, die von der Kamera 4 erfasst werden. Ferner zeigt 1 zusätzlich zum Robotersystem 1 einen Arbeiter WK, der die Arbeit am Objekt O ausführt.
  • Der Förderer 2 ist beispielsweise ein Bandförderer und ist mit einem Band 6 versehen, auf dem das Objekt O platziert ist und in eine Richtung gefördert wird. Das Band 6 wird von einem Motor (nicht gezeigt) angetrieben. Auf einer Oberfläche des Bands 6 sind eine Vielzahl von Markierungen MK mit vorbestimmten Abständen zwischen ihnen gebildet. Es ist zu beachten, dass die Beschreibungen im Folgenden vereinfacht sind, wobei „auf dem Band 6“ auch als „auf dem Förderer 2“ bezeichnet wird und „die Fördergeschwindigkeit des Bands 6“ auch als „die Fördergeschwindigkeit des Förderers 2“ bezeichnet wird.
  • Wenn die sich bewegende Plattform 13 in der Nachbarschaft des Förderers 2 angeordnet ist und an ihm, wie in 1 gezeigt, gesichert ist, weist die Kamera 4 ein festes Sichtfeld in einem bestimmten Abschnitt des Förderers 2 auf. Die Kamera 4 erfasst sukzessive optische Informationen in der Form von zweidimensionalen Bildern des Objekts O und Markierungen MK, die vom Förderer 2 gefördert werden. In dieser Ausführungsform nimmt die Kamera 4 Bilder in einer Bildrate auf, bei der die Bilder des Objekts O und der Markierungen MK mindestens zweimal aufgenommen werden, während das gleiche Objekt O und die gleichen Markierungen MK das Bildaufnahmesichtfeld der Kamera 4 durchlaufen.
  • Es ist zu beachten, dass das oben erwähnte Sichern beispielsweise erreicht wird mittels: eines Verfahrens, bei dem die Drehung einiger oder aller Räder der sich bewegenden Plattform 13 mittels Radverriegelungsmechanismus begrenzt wird, der die Drehung der Räder der sich bewegenden Plattform 13 begrenzt; eines Verfahrens, bei dem, indem die Räder der sich bewegenden Plattform 13 in Bezug zu einem Körper der sich bewegenden Plattform 13 nach oben bewegt werden, der Körper in Berührung mit dem Boden gebracht wird, und dadurch die sich bewegende Plattform 13 gesichert ist, sodass sie in Bezug zur Installationsoberfläche nicht bewegt werden kann; und eines Verfahrens, bei dem, indem eine Auslegerstruktur eingesetzt wird, die mit einer Vielzahl von Armen, die von beiden Seitenoberflächen des Körpers in horizontale Richtungen hervorstehen, und einer Vielzahl von Beinelementen, die sich von jedem der Vielzahl von Armen nach unten erstrecken, versehen ist, die sich bewegende Plattform 13 mittels der Auslegerstruktur gesichert ist. Die sich bewegende Plattform 13 kann gesichert werden, indem andere Verfahren verwendet werden.
  • Auf der sich bewegenden Plattform 13 ist der Roboter 3 in Förderrichtung des Förderers 2 weiter auf der nachgelagerten Seite installiert als die Kamera 4. Entsprechend führt der Roboter 3 die Arbeit am Objekt O aus, nachdem die Kamera 4 Bilder davon aufgenommen hat.
  • Nachdem die sich bewegende Plattform 13 in der Nachbarschaft des Förderers 2 angeordnet wurde und an ihm gesichert wurde, wird das Einstellen eines Zielverfolgungskoordinatensystems unter Verwendung der Kamera 4 und des Roboters 3 ausgeführt.
  • Als ein Verfahren für das Einstellen des Zielverfolgungskoordinatensystems werden zunächst unter Verwendung der Kamera 4 der gesicherten sich bewegenden Plattform 13 die Bilder des Objekts O, der Markierungen MK, der Kalibrierausrüstung usw. (Kalibrierausrüstung in dieser Ausführungsform) auf dem Förderer 2 in einer bestimmten Förderposition erfasst, und mindestens ein Bild der Kalibrierausrüstung, die vom Förderer 2 an eine Position gefördert wurde, die weiter nachgelagert ist als die Förderposition, wird ebenfalls erfasst. Als nächstes führt die Steuereinheit 5 bekannte Bildverarbeitung an dieser Vielzahl von Bildern aus, ermittelt mit Hilfe von Musterabgleich oder Ähnlichem die Richtung, in der sich die Kalibrierausrüstung bewegt, die in der Vielzahl von Bildern erscheint, stellt eine horizontale Richtung ein, die der Bewegungsrichtung entspricht, um beispielsweise die x-Achse des Zielverfolgungskoordinatensystems zu sein, und stellt eine horizontale Richtung ein, die orthogonal zur x-Achse ist, die y-Achse zu sein. Die z-Achse kann bei Bedarf eingestellt werden.
  • Als ein anderes Verfahren wird zunächst ein Kalibrierwerkzeug an einem distalen Ende des Roboters 3 befestigt und eine Kalibrierplatte, die auf ihrer Oberfläche eine Vielzahl von kleinen Punkten aufweist, die so angeordnet sind, dass sie genau in der Richtung gruppiert sind, die orthogonal zur Förderrichtung ist, wird auf dem Förderer 2 platziert. Hier wird die Position eines distalen Endes des Kalibrierwerkzeugs von der Steuereinheit 5 identifiziert, die den Roboter 3 steuert.
  • Als nächstes wird die Bewegungsrichtung des Förderers 2, mit anderen Worten, die x-Achse des Zielverfolgungskoordinatensystems, in der Steuereinheit 5 eingestellt, indem das distale Ende des Kalibrierwerkzeugs, das am distalen Ende des Roboters 3 befestigt ist, mit mindestens zwei der kleinen Punkte in Berührung gebracht wird, die auf der oberen Oberfläche der Kalibrierplatte in der Förderrichtung des Förderers 2 gruppiert sind, und es wird die y-Achse in der Steuereinheit 5 eingestellt, indem zusätzlich das distale Ende des Kalibrierwerkzeugs mit mindestens einem Punkt auf der oberen Oberfläche der Kalibrierplatte in der Richtung, die orthogonal zur x-Achse ist, in Berührung gebracht wird. Darüber hinaus wird die Richtung, die orthogonal zur x- und zur y-Achse ist, in der Steuereinheit 5 als z-Achse eingestellt, und eine Höhe, die erhalten wird, indem die Dicke der Kalibrierplatte, die bekannt ist, von der Berührungsposition abgezogen wird, wird in der Steuereinheit 5 als Höhe des Förderers 2 eingestellt. Es ist zu beachten, dass es auch im Fall des zuvor beschriebenen Verfahrens, bei dem die Kamera 4 verwendet wird, möglich ist, die Höhe einzustellen, indem die Berührung mit dem Roboter 3 usw. verwendet wird.
  • Es ist zu beachten, dass die x-Achse des Zielverfolgungskoordinatensystems eingestellt werden kann, indem das distale Ende des Kalibrierwerkzeugs in Berührung mit einem Punkt auf der Kalibrierplatte in einer bestimmten Förderposition auf dem Förderer 2 gebracht wird und indem das distale Ende des Kalibrierwerkzeugs mit dem zuvor beschriebenen Punkt auf der Kalibrierplatte in Berührung gebracht wird, die zu einer Position gefördert wurde, die weiter nachgelagert ist als die Förderposition. Darüber hinaus kann das Zielverfolgungskoordinatensystem mit Hilfe anderer Verfahren eingestellt werden.
  • Wie oben beschrieben, sind der Roboter 3 und die Kamera 4 über der sich bewegenden Plattform 13 gesichert, und die Kalibrierung des Roboters 3 und der Kamera 4 wurde bereits ausgeführt und somit wurde die Positionsbeziehung zwischen dem Roboter 3 und der Kamera 4 geklärt. Entsprechend wird, indem das zuvor beschriebene Zielverfolgungskoordinatensystem unter Verwendung der Kamera 4 oder des Roboters 3 eingestellt wird, das Zielverfolgungskoordinatensystem, in dem die Bewegungsrichtung des Förderers 2 als x-Achse dient, auf dem Förderer 2 in Bezug zum Roboter 3 definiert, und somit ist die Position der Kamera 4 in Bezug zum Zielverfolgungskoordinatensystem geklärt. Mit anderen Worten gibt es den Vorteil, dass es möglich ist, die Kamera 4 und den Roboter 3 zum Ausführen der Arbeit am Förderer 2 zu installieren, ohne dass komplizierte Einstellungsarbeit erforderlich ist. In dieser Ausführungsform unterscheidet sich ein Arbeitsbereich des Roboters 3 von dem Bildaufnahmebereich der Kamera 4. Mit anderen Worten, die Arbeit, die vom Roboter 3 ausgeführt wird, wird von der Kamera 4 nicht aufgenommen.
  • Der Roboter 3 dieser Ausführungsform ist ein vertikaler Mehrgelenkroboter, der eine Vielzahl von Gelenkwellen aufweist. Es ist zu beachten, dass in 1 auf Darstellungen von einzelnen Motoren zum Antreiben der Vielzahl von Gelenkwellen und auf Darstellungen von einzelnen Codierern zum Erkennen der Drehwinkel der einzelnen Motoren verzichtet wurde. Am distalen Ende des Roboters 3 ist eine Roboterhand 7 zum Ausführen der Arbeit am Objekt O befestigt.
  • Die Steuereinheit 5 besteht aus einer CPU, einem ROM, einem RAM und einem Speicher (nicht dargestellt). Wie in 2 gezeigt, ist die Steuereinheit 5 versehen mit: einer Bildverarbeitungseinrichtung 8, die die Bilder verarbeitet, die von der Kamera 4 erfasst wurden, und die darin enthaltenen Objekte O erkennt; einer Geschwindigkeitsberechnungseinrichtung (Berechnungseinrichtung) 9, die die Fördergeschwindigkeit des Förderers 2 auf der Grundlage der Objekte O in den verarbeiteten Bildern berechnet; einer Antriebssteuereinheit 10, die den Roboter 3 auf der Grundlage der Fördergeschwindigkeit antreibt, die von der Geschwindigkeitsberechnungseinrichtung 9 berechnet wird; einem Timer 11, der die Zeit misst; und einer Benachrichtigungseinrichtung 12, die auf der Basis der Ausgabe des Timers 11 eine Benachrichtigung über vorbestimmte Informationen nach außen ausgibt. Wie in 1 gezeigt, kann in dieser Ausführungsform, obwohl die Steuereinheit 5 in die sich bewegende Plattform 13 eingebaut ist, in einer anderen Ausführungsform die Steuereinheit 5 separat von der sich bewegenden Plattform 13 vorgesehen werden.
  • Die Bildverarbeitungseinrichtung 8 erkennt und identifiziert in den Bildern die Objekte O, die vom Förderer 2 gefördert werden, oder die Markierungen MK, die auf dem Förderer 2 gebildet sind, indem ein Musterabgleich oder Ähnliches auf die Bilder angewendet wird, die von der Kamera 4 erfasst wurden. Zusätzlich erkennt die Bildverarbeitungseinrichtung 8 die Ausrichtungen der identifizierten Objekte O oder Markierungen MK. Das Objekt O ist noch auf dem Förderer 2 platziert, und die Markierungen MK sind auf dem Förderer 2 fixiert. Daher ändern sich, wenn der Förderer 2 im Betrieb ist, entlang der Förderrichtung die Positionen des Objekts O und der Markierungen MK in Bezug zur Kamera 4.
  • Die Geschwindigkeitsberechnungseinrichtung 9 berechnet die Fördergeschwindigkeit des Förderers 2 auf der Grundlage der Änderungen in den Positionen des gleichen Objekts O oder der gleichen Markierung MK, das bzw. die von der Bildverarbeitungseinrichtung 8 erkannt wird, in Bezug zur Position des Roboters 3. Die Geschwindigkeitsberechnungseinrichtung 9 berechnet den Betrag der Bewegung des Objekts O, das vom Förderer 2 bewegt wird, indem die berechnete Fördergeschwindigkeit des Förderers 2 verwendet wird. Im Folgenden wird der Fall beschrieben, indem das Objekt O erkannt wird.
  • Insbesondere zum Beispiel, wie in 3 gezeigt, wenn drei Bilder in dem gleichen Sichtfeld zu unterschiedlichen Zeiten t1, t2, und t3 erfasst werden, die durch ein vordefiniertes Zeitintervall Δt getrennt sind, identifiziert die Bildverarbeitungseinrichtung 8 in den jeweiligen Bildern die Objekte O, die in den Bildern umfasst sind, und berechnet Koordinatenpositionen der Schwerpunkte der identifizierten Objekte O.
  • Auch die Geschwindigkeitsberechnungseinrichtung 9 identifiziert die Objekte O, deren Schwerpunkte sich in den Bildern, die in der Zeitachsenrichtung benachbart zueinander erfasst wurden, in der Nachbarschaft der gleichen Koordinaten in einer Richtung orthogonal zur Förderrichtung befinden, als das gleiche Objekt O, und berechnet die Fördergeschwindigkeit, indem die Unterschiede zwischen den Koordinatenwerten der Schwerpunkte der jeweiligen Objekte O in der Förderrichtung durch das Zeitintervall Δt zum Aufnehmen der Bilder geteilt werden. Wenn die Fördergeschwindigkeit für das gleiche Objekt O mehrmals berechnet wird, wird der Mittelwert dieser Berechnungen oder ein Wert, der mittels der Methode der kleinsten Quadrate oder mittels ähnlicher Methoden abgestimmt wurde, als die Fördergeschwindigkeit ausgegeben.
  • Währenddessen erkennt in dieser Ausführungsform die Steuereinheit 5 die Positionen und Ausrichtungen der jeweiligen Objekte O, um den Roboter 3 zu steuern, wenn sie den Roboter 3 veranlasst, die Arbeit in einem Zeitintervall Δts auszuführen, das größer ist als das vorbestimmte Zeitintervall Δt. So werden beispielsweise in dem Fall, in dem Δt mehrere Millisekunden beträgt, die Positionen und Ausrichtungen in einem Zeitintervall Δts erkannt, das eingestellt ist, mehrere Zehnfache oder mehrere Hundertfache größer zu sein als Δt, das heißt mehrere Hundert Millisekunden. Dadurch wird die Häufigkeit, in der die Positionen und Ausrichtungen der Objekte O erkannt werden, was in der Regel im Hinblick auf die Datenverarbeitung zeitaufwändig ist, verringert, und somit ist es möglich, die Verarbeitungslast zu reduzieren, was es möglich macht, die Berechnungen der Fördergeschwindigkeit und des Betrags der Bewegung stabil auszuführen.
  • Zusätzlich bestimmt die Bildverarbeitungseinrichtung 8, ob eine Situation eintritt, in dem kein Objekt O in den Bildern erkannt wird, oder nicht. In dem Fall, in dem kein Objekt O erkannt wird, veranlasst die Bildverarbeitungseinrichtung 8 den Timer 11, eine Uhr zu starten. In dem Fall, in dem wieder ein Objekt O in den Bildern erkannt wird, nachdem der Timer 11 veranlasst wurde, die Uhr zu starten, veranlasst die Bildverarbeitungseinrichtung 8 den Timer 11, die Uhr zurückzusetzen.
  • Wenn eine vorbestimmte Zeitmenge vergangen ist, nachdem der Timer 11 die Uhr gestartet hat, gibt die Benachrichtigungseinrichtung 12 eine Benachrichtigung nach außen aus, die anzeigt, dass es nicht möglich ist, das Objekt O zu erkennen. In einem solchen Fall gibt in dieser Ausführungsform die Benachrichtigungseinrichtung 12 eine beliebige Benachrichtigung aus, die anzeigt, dass das Fördern des Objekts O durch den Förderer 2 angehalten wurde, eine Benachrichtigung, die anzeigt, dass das Band 6 des Förderers 2 angehalten wurde, und eine Benachrichtigung, die anzeigt, dass eine Fördergeschwindigkeit V des Bands 6 temporär nicht erfasst wird. Die Benachrichtigungseinrichtung 12 gibt eine solche Benachrichtigung unter Verwendung eines beliebigen Mittels wie beispielsweise eines Monitors, einer Lampe, eines Summers oder Ähnlichem aus. Die Benachrichtigungseinrichtung 12 gibt eine ähnliche Benachrichtigung an die Antriebssteuereinheit 10 in Form eines Steuersignals aus.
  • Die Antriebssteuereinheit 10 treibt den Roboter 3 an, indem sie Antriebsanweisungen an den Roboter 3 überträgt, um die Winkel der einzelnen Motoren an den einzelnen Gelenkwellen des Roboters 3 in Übereinstimmung mit einem diesem im Voraus geteachten Betriebsprogramm zu steuern. Die Antriebssteuereinheit 10 führt eine Feedback-Steuerung der einzelnen Motoren aus, indem die Drehwinkel der einzelnen Motoren von den einzelnen Codierern erkannt werden. Auf Grundlage der Fördergeschwindigkeit V, die von der Geschwindigkeitsberechnungseinrichtung 9 berechnet wird, führt die Antriebssteuereinheit 10 eine Zielverfolgung durch, bei der das Objekt O auf dem Förderer 2 verfolgt wird. Die Antriebssteuereinheit 10 lädt das Betriebsprogramm in Übereinstimmung mit der Arbeit, die vom Roboter 3 auszuführen ist, und dem Modell des Objekts O, das als Arbeitssubjekt dient, und führt die Positionseinstellung des Zielverfolgungskoordinatensystems oder Ähnlichem des Roboters 3 aus. Als Folge des Steuerns der Betriebe des Roboters 3 und der Roboterhand 7 mittels der Antriebssteuereinheit 10 führt die Roboterhand 7 verschiedene Arten von Arbeiten an dem Objekt O aus, das vom Förderer 2 gefördert wird.
  • In dieser Ausführungsform führt die Antriebssteuereinheit 10, wenn sie die Benachrichtigung von der Benachrichtigungseinrichtung 12 erhält, zwei Arten von Steuerungen aus. Eine dieser Steuerungen ist die Steuerung zum Stoppen der Arbeit, die der Roboter 3 am Objekt O ausführt. Die andere Steuerung ist die Steuerung, um den Roboter 3 zu veranlassen, mit der Arbeit fortzufahren, indem die Fördergeschwindigkeit V des Förderers 2 verwendet wird, die von der Geschwindigkeitsberechnungseinrichtung 9 berechnet wird, bevor die Benachrichtigungseinrichtung 12 die Benachrichtigung ausgibt.
  • Unter Verwendung der Positionen des Objekts O auf dem Förderer 2, das von der Bildverarbeitungseinrichtung 8 erkannt wird, der Fördergeschwindigkeit V des Förderers 2, die von der Geschwindigkeitsberechnungseinrichtung 9 berechnet wird, und des Betrags der Bewegung des Objekts O, das gefördert wird, veranlasst die Antriebssteuereinheit 10 die Roboterhand 7, die Arbeit am Objekt O, das gefördert wird, auszuführen, während sie dem Objekt O folgt. Insbesondere veranlasst die Antriebssteuereinheit 10 die Roboterhand 7, die Arbeit auszuführen, indem sie die relativen Geschwindigkeiten zwischen dem Objekt O, das gefördert wird, und der Roboterhand 7 so weit wie möglich reduziert. Dadurch ist es möglich, die Stoßwirkung, die auftritt, wenn die Roboterhand 7 in Berührung mit dem Objekt O kommt, zu reduzieren, was wirkungsvoll ist, den Bruch des Objekts O zu verhindern.
  • Ein Beispiel eines Arbeitsdurchführungsverfahrens für das Ausführen von Prozeduren, die beteiligt sind, bis der Roboter 3 die Arbeit am Objekt O, das auf dem Förderer 2 gefördert wird, ausführt, ist nachfolgend in Übereinstimmung mit dem in 4 gezeigten Flussdiagramm beschrieben.
  • Zuerst wird die sich bewegende Plattform 13, an der der Roboter 3 und die Kamera 4 gesichert sind, in der Nachbarschaft des Förderers 2 angeordnet und an diesem gesichert (Schritt S11). Die Antriebssteuereinheit 10 lädt das Betriebsprogramm in Übereinstimmung mit der Arbeit, die vom Roboter 3 auszuführen ist, und dem Modell des Objekts O, das als Arbeitssubjekt dient, und führt die Positionseinstellung des Zielverfolgungskoordinatensystems oder von Ähnlichem des Roboters 3 aus. Die Kamera 4 nimmt mit der voreingestellten Bildrate Bilder des Förderers 2 auf, die das Objekt O umfassen, das auf ihm gefördert wird, und erfasst so Bilder, die als die optischen Informationen dienen (Schritt S12). Die Bildverarbeitungseinrichtung 8 erkennt die Objekte O in der Vielzahl von Bildern, die von der Kamera 4 erfasst werden (Schritt S13). Wie in 3 gezeigt, berechnet die Geschwindigkeitsberechnungseinrichtung 9 die Fördergeschwindigkeit V des Förderers 2, indem sie die Schwerpunkte der erkannten Objekte O verwendet (Schritt S14). Die Antriebssteuereinheit 10 berechnet die aktuelle Position und Ausrichtung des Objekts O auf dem Förderer 2 unter Verwendung der Fördergeschwindigkeit V. Die Antriebssteuereinheit 10 treibt den Roboter 3 auf der Grundlage der berechneten Position und Ausrichtung des Objekts O an und somit führt der Roboter 3 die Arbeit am Objekt O auf dem Förderer 2 aus (Schritt S15). Somit ist das Arbeitsdurchführungsverfahren für das Objekt O, das auf dem Förderer 2 gefördert wird, beendet.
  • Der Betrieb des so ausgestalteten Robotersystems 1 gemäß dieser Ausführungsform wird nachfolgend beschrieben.
  • Mit dem Robotersystem 1 gemäß dieser Ausführungsform nimmt die Kamera 4 die Bilder des Objekts O auf, wenn das Objekt O vom Förderer 2 gefördert wird. Als Ergebnis des Umstands, dass die Bilder, die von der Bildaufnahme erfasst werden, der Bildverarbeitung mittels der Bildverarbeitungseinrichtung 8 unterzogen werden, wird das Objekt O in den Bildern erkannt. Auf der Grundlage des Erkennungsergebnisses des Objekts O wird die Fördergeschwindigkeit V des Förderers 2 berechnet. Während die berechnete Fördergeschwindigkeit V verwendet wird, führt der Roboter 3 Arbeit am Objekt O aus, das vom Förderer 2 gefördert wird.
  • Weil der Roboter 3 und die Kamera 4 an der sich bewegenden Plattform 13 gesichert sind, können der Roboter 3 und die Kamera 4 in Übereinstimmung mit einer Zunahme/Abnahme der Anzahl der Objekte O bewegt werden, die in der Produktionslinie gefertigt werden, die den Förderer 2 umfasst. Entsprechend gibt es im Vergleich zu einem Roboter, der am Förderer 2 gesichert ist, den Vorteil, dass diese Komponenten keine Überkapazität in der Produktionslinie verursachen. Ferner wird in dem Robotersystem 1 dieser Ausführungsform die Fördergeschwindigkeit V des Förderers 2 auf der Grundlage der Bilder berechnet, die von der Kamera 4 erfasst werden, deren Position in Bezug zu der des Roboters 3 fest ist. Entsprechend ist ein Codierer oder Ähnliches zum Berechnen der Fördergeschwindigkeit V des Förderers 2 nicht erforderlich und somit gibt es den Vorteil, dass es möglich ist, Überkapazität in der Produktionslinie, die den Förderer 2 umfasst, weiter zu unterdrücken.
  • Dann wird, wie in 3 gezeigt, auf der Grundlage der Koordinatenpositionen d1, d2 und d3 des Schwerpunkts des gleichen Objekts O, die auf der Grundlage der Bilder berechnet werden, die zu verschiedenen Zeitpunkten t1, t2 und t2, die durch das vorbestimmte Zeitintervall Δt getrennt sind, erfasst wurden, die Fördergeschwindigkeit V des Förderers 2 von der Geschwindigkeitsberechnungseinrichtung 9 berechnet und in die Antriebssteuereinheit 10 eingegeben. Weil die Kamera 4 und der Roboter 3 an Positionen angeordnet sind, die durch einen vorbestimmten Abstand getrennt sind, bewegt sich, wenn sich der Förderer 2 mit der gleichen Geschwindigkeit bewegt, das Objekt O in einen Betriebsbereich des Roboters 3, wenn die Zeitmenge vergangen ist, die erhalten wird, indem dieser Abstand durch die Fördergeschwindigkeit V geteilt wird.
  • Wie oben beschrieben, identifiziert die Antriebssteuereinheit 10 die Position und Ausrichtung des Objekts O in Bezug zu einem Zielverfolgungskoordinatensystem TF an einem Zeitpunkt (Zeitintervall Δts), an dem das Objekt O in den Bildern vorhanden ist, und berechnet den Betrag der Bewegung des Objekts O zwischen dem Zeitpunkt und der aktuellen Zeit. Dann wird ein aktuelles Zielverfolgungskoordinatensystem TF' berechnet, indem das Zielverfolgungskoordinatensystem TF mit einer Koordinatentransformationsmatrix multipliziert wird, die diese Bewegungsbeträge als Komponenten aufweist. TF ' = T TF
    Figure DE102018124712B4_0001
  • Somit kann die Antriebssteuereinheit 10 unter Bezugnahme auf das berechnete aktuelle Zielverfolgungskoordinatensystem TF' die Roboterhand 7 veranlassen, das Objekt O zu greifen und das Objekt O vom Förderer 2 zu nehmen, während sie die Roboterhand 7 veranlasst, dem Objekt O, das vom Förderer 2 gefördert wird, zu folgen.
  • In diesem Fall kann die Antriebssteuereinheit 10, wenn der Roboter 3 so angetrieben wird, dass die Roboterhand 7 dem Objekt O auf dem Förderer 2 folgt, weil die Kamera 4 ein Bild des nachfolgenden Objekts O aufnimmt und eine neue Fördergeschwindigkeit V durch die Geschwindigkeitsberechnungseinrichtung 9 berechnet wird, den Roboter 3 steuern, indem sie die neu berechnete Fördergeschwindigkeit V verwendet, und somit ist es möglich, das Objekt O sogar dann korrekt zu nehmen, wenn die Fördergeschwindigkeit V des Förderers 2 schwankt.
  • 5 ist eine Grafik einer Gesamtausgestaltung, die ein Robotersystem (Arbeitssystem) 1a gemäß einer zweiten Ausführungsform zeigt. Das Robotersystem 1a der zweiten Ausführungsform unterscheidet sich dahingehend vom Robotersystem 1 der ersten Ausführungsform, dass eine Kamera 4a und eine Kamera 4b anstelle der Kamera 4 im Robotersystem 1 der Ausführungsform 1 vorgesehen sind. Da das Robotersystem 1a die gleichen Ausgestaltungen wie jene des Robotersystems 1 der ersten Ausführungsform im Hinblick auf andere Merkmale aufweist, werden die Kameras 4a und 4b in der zweiten Ausführungsform beschrieben und auf Beschreibungen der gleichen Ausgestaltungen wird verzichtet.
  • In der zweiten Ausführungsform führen die Kameras 4a und 4b die Aufgaben aus, die von der Kamera 4 in der ersten Ausführungsform ausgeführt werden. Insbesondere wird die Fördergeschwindigkeit V des Förderers 2 auf der Grundlage der Bilder berechnet, die von der Kamera 4a erfasst werden, und die Position und die Ausrichtung des Objekts, das vom Förderer 2 gefördert wird, werden auf der Grundlage der Bilder berechnet, die von der Kamera 4b erfasst werden. Auf diese Weise werden durch den Einsatz unterschiedlicher Bildverarbeitungen für die Bilder von der Kamera 4a und die Bilder von der Kamera 4b die Freiheitsgrade im Hinblick auf die Auslegung der Bildrate und die Auflösung der Kameras 4a und 4b verbessert.
  • 6 ist eine Grafik einer Gesamtausgestaltung, die ein Robotersystem (Arbeitssystem) 1b gemäß einer dritten Ausführungsform zeigt. Das Robotersystem 1b der dritten Ausführungsform unterscheidet sich dahingehend vom Robotersystem 1 der ersten Ausführungsform, dass eine Kamera 4c, die einen Bereich aufnimmt, der sich vom Bildaufnahmebereich der Kamera 4 unterscheidet, anstelle der Kamera 4 im Robotersystem 1 der ersten Ausführungsform vorgesehen ist. Da das Robotersystem 1b die gleichen Ausgestaltungen wie jene des Robotersystems 1 der ersten Ausführungsform im Hinblick auf andere Merkmale aufweist, wird die Kamera 4c in der dritten Ausführungsform beschrieben und auf Beschreibungen der gleichen Ausgestaltungen wird verzichtet.
  • Der Bildaufnahmebereich (Blickwinkel) der Kamera 4c der dritten Ausführungsform umfasst den Arbeitsbereich des Roboters 3. Die Positionen und Ausrichtungen der Objekte O werden sukzessive auf der Grundlage der Bilder, die von der Kamera 4c erfasst werden, berechnet.
  • Die Kamera 4c kann eine 2D-Kamera oder eine 3D-Kamera sein. Im Falle einer 2D-Kamera werden das Einstellen des Zielverfolgungskoordinatensystems, das Erkennen der Positionen und Ausrichtungen der jeweiligen Objekte O usw. auf ähnliche Weise ausgeführt wie in der ersten Ausführungsform, indem die Objekte O in der Vielzahl von Bildern verwendet werden, die von der Kamera 4c erfasst werden. Es ist zu beachten, dass das Robotersystem so ausgestaltet werden kann, dass die Berechnung der Fördergeschwindigkeit des Förderers 2 und die Berechnung des Betrags der Bewegung des Objekts O auch auf ähnliche Weise ausgeführt werden wie in der ersten Ausführungsform.
  • In dem Fall, in dem eine 3D-Kamera verwendet wird, ist es für den Roboter 3 möglich, weil es möglich ist, die Position und Ausrichtung (Neigung) des Objekts O in Bezug zur Kamera 4c in Echtzeit dreidimensional zu erfassen, sogar wenn das Objekt geneigt ist, die Arbeit an dem Objekt O auf der Grundlage der Erkennungsergebnisse der Kamera 4c auszuführen.
  • Wie oben beschrieben, wird die Genauigkeit der berechneten Position und Ausrichtung des Objekts O erhöht, weil es für den Roboter 3 möglich ist, das Objekt O direkt zu nehmen, indem dessen erkannte Position und Ausrichtung als Ergebnis des Umstands verwendet wird, dass der Bildaufnahmebereich der Kamera 4c mit dem Arbeitsbereich des Roboters 3 überlappt, im Vergleich zu dem Fall, in dem der Bildaufnahmebereich der Kamera 4c sich vom Arbeitsbereich des Roboters 3 unterscheidet, und es ist dem Roboter 3 auch möglich, das Objekt O sogar dann zu nehmen, wenn die Position des Objekts sich etwas ändert, bevor der Roboter 3 das Objekt O nimmt. Es ist zu beachten, dass, weil die Störung im Sichtfeld der Kamera 4c, die durch den Roboter 3 verursacht wird, reduziert wird, wenn die Richtung (optische Achse) der Kamera 4c in Bezug zu einer horizontalen Oberfläche (obere Oberfläche des Förderers 2) wie in 6 geneigt ist, dies im Hinblick auf die Verbesserung der Präzision, mit der die Position und Ausrichtung des Objekts O erkannt werden, vorteilhaft ist. Entsprechend ist es möglich, die Beziehung zwischen dem Arbeitsbereich des Roboters 3 und des Bildaufnahmebereichs der Kamera 4c auf unterschiedliche Weise zu modifizieren.
  • Es ist zu beachten, dass es, obwohl Beispiele des Robotersystems 1 in den zuvor beschriebenen Ausführungsformen beschrieben wurden, möglich ist, das Robotersystem 1 und den Roboter, der an der Produktionslinie angeordnet ist und beweglich an ihr gesichert ist, auf unterschiedliche Weise zu modifizieren. So ist es beispielsweise zulässig, anstelle des Robotersystems 1, das den Förderer 2 umfasst, einen Roboter einzusetzen, der versehen ist mit: der sich bewegenden Plattform 13, die beweglich ist; dem Roboter 3, der an der sich bewegenden Plattform 13 gesichert ist und der auch die Arbeit an dem Objekt O ausführt, das vom Förderer 2 gefördert wird; und der Kamera 4, die an der sich bewegenden Plattform 13 gesichert ist und die auch Bilder des Objekts O aufnimmt.
  • Die sich bewegende Plattform 13 kann ein fahrerloses Förderfahrzeug (fahrerloses Transportfahrzeug) sein. In diesem Fall kann die sich bewegende Plattform 13 ein fahrerloses Förderfahrzeug sein, das ein optisches Leitsystem, ein elektromagnetisches Leitsystem oder Ähnliches verwendet und das sich auf einem vorbestimmten Bewegungspfad in einem Werk bewegt, das eine Vielzahl von Förderern 2 aufweist. Als Ergebnis des Umstands, dass sich die sich bewegende Plattform 13 auf dem vorbestimmten Bewegungspfad bewegt, wird verhindert, dass ein Roboter eingerichtet wird, der Überkapazität verursachen würde.
  • In einer anderen Ausführungsform des Robotersystems kann eine Vielzahl von Robotern 3, die die eingebaute Steuereinheit 5 wie in der zuvor beschriebenen Ausführungsform umfassen, an einem einzelnen Förderer 2 angeordnet und gesichert sein, und eine Zellensteuervorrichtung, die die Vielzahl von Robotern 3 steuert, kann vorgesehen sein. Diese Zellensteuervorrichtung ist eine übergeordnete Steuervorrichtung der Vielzahl von Steuereinheiten 5 und steuert die Vielzahl von Robotern 3 und die Kameras 4, die einzeln an der Vielzahl von sich bewegenden Plattformen 13 gesichert sind. In diesem Fall, wenn eine der Kameras 4, die in der Vielzahl von Robotern 3 umfasst sind, die Bilder des Objekts O oder der Markierungen MK, die vom Förderer 2 gefördert werden, erfasst, berechnet die Zellensteuervorrichtung unter Verwendung der erfassten Bilder die Fördergeschwindigkeit V des Förderers 2 und die Position und Ausrichtung des Objekts O. Die Zellensteuervorrichtung kann die berechnete Fördergeschwindigkeit V des Förderers 2 und die berechnete Position und Ausrichtung des Objekts O mit der Vielzahl von Robotern 3 teilen, die unter der Steuerung der Zellensteuervorrichtung sind.
  • Die Antriebssteuereinheit 10 kann den Roboter 3 veranlassen, aus dem Arbeitsbereich heraus bewegt zu werden, wenn andere Objekte, die sich vom Objekt O unterscheiden, das als das Arbeitssubjekt dient, vom Förderer 2 gefördert werden. Wenn beispielsweise die Bildverarbeitungseinrichtung 8 die anderen Objekte in den Bildern erkennt, die von der Kamera 4 erfasst werden, veranlasst die Antriebssteuereinheit 10 die Roboterhand 7, aus dem Arbeitsbereich heraus bewegt zu werden. Dadurch ist es möglich, einen Unfall auf dem Förderer 2 zu verhindern, indem Kollisionen zwischen dem Roboter 3 und den anderen Objekten vermieden werden.
  • Zusätzlich ist es in dieser Ausführungsform, obwohl der Fall, in dem das einzelne Objekt O in den Bildern erkannt wird, beschrieben wurde, wie in 7 gezeigt, alternativ möglich, die vorliegende Erfindung auf einen Fall anzuwenden, in dem eine Vielzahl von Objekten a1, a2 und a3 gleichzeitig im Sichtfeld der Kamera 4 platziert werden.
  • Mit anderen Worten kann in dem Fall, in dem die Vielzahl von Objekten a1, a2 und a3 in den Bildern identifiziert werden, für die jeweiligen Objekte a1, a2 und a3 die Gleichheit in Bezug auf die Objekte a1, a2 und a3 in den Bildern, die zu verschiedenen Zeitpunkten erfasst wurden, bestimmt werden, und die Fördergeschwindigkeit V kann berechnet werden, indem die Geschwindigkeiten V1, V2 und V3, die separat auf der Grundlage der Bewegungsentfernungen zwischen den Objekten a1, a2 und a3 berechnet werden, die als gleich bestimmt werden, gemittelt werden. In diesem Fall werden die Bewegungsentfernungen der gleichen Objekte a1, a2 und a3 jeweils auf der Grundlage der Unterschiede in den Koordinatenpositionen d11, d12 und d13, Koordinatenpositionen d22, d23 und d24 und Koordinatenpositionen d33 und d34 der Schwerpunkte der gleichen Objekte a1, a2 und a3 bestimmt, die auf der Grundlage der Bilder berechnet werden, die zu verschiedenen Zeitpunkten t1, t2 und t3 erfasst wurden, die durch das vorbestimmte Zeitintervall Δt getrennt sind.
  • Mit dem Robotersystem 1 der zuvor beschriebenen Ausführungsformen kann, obwohl die Fördergeschwindigkeit V des Förderers 2 auf der Grundlage der Position des Objekts O berechnet wird, das vom Förderer 2 gefördert wird, die Fördergeschwindigkeit V des Förderers 2 als Ergebnis des Umstands berechnet werden, dass die Kamera 4 Bilder der Markierungen MK aufnimmt, die auf dem Förderer 2 gebildet sind. Als Markierungen MK können Markierungen eingesetzt werden, in denen mehrere Arten von Formen, wie ein Rechteck, ein Kreis usw. kombiniert sind. Im Hinblick auf die Positionen, an denen die Markierungen MK angeordnet sind, können die Markierungen MK, da die Kamera 4 an der sich bewegenden Plattform 13 gesichert ist, die bewegt werden kann, in der Richtung entlang der Förderrichtung angeordnet sein und in der Richtung, die orthogonal zur Förderrichtung ist mit vorbestimmten Abständen zwischen ihnen, oder die Markierungen MK können zufällig angeordnet sein.
  • In den zuvor beschriebenen Ausführungsformen ist es möglich, obwohl der Roboter 3, der an der sich bewegenden Plattform 13 gesichert ist, ein vertikaler Mehrgelenkroboter ist, den Roboter, der die Arbeit am Objekt O ausführt, das vom Förderer 2 gefördert wird, auf unterschiedliche Weise zu modifizieren. Beispielsweise kann der Roboter 3 ein horizontal installierter Roboter, ein aufgehängter Roboter usw., eine einfache Arbeitsvorrichtung mit einer Ablage und einem Mechanismus, der das Objekt O auf die Ablage platziert, sein, und es ist ausreichend, eine beliebige Arbeitsvorrichtung (Arbeitseinrichtung) einzusetzen.
  • In den zuvor beschriebenen Ausführungsformen ist es möglich, obwohl Arbeit, die das Nehmen des Objekts O vom Förderer 2 beinhaltet, als eine Beispielarbeit beschrieben wurde, die Roboterhand 7 am Objekt O ausführt, die Arbeit zu modifizieren, auf unterschiedliche Weise ausgeführt zu werden. Beispielsweise kann die Roboterhand 7 Arbeit ausführen, bei der ein Teil geschweißt wird, ohne das Objekt O auf dem Förderer 2 zu bewegen.
  • Bezugszeichenliste
  • 1, 1a, 1b
    Robotersystem (Arbeitssystem)
    2
    Förderer (Fördervorrichtung)
    3
    Roboter (Arbeitseinrichtung)
    4, 4a, 4b, 4c
    Kamera (optischer Sensor)
    8
    Bildverarbeitungseinrichtung (Erkennungseinrichtung)
    9
    Geschwindigkeitsberechnungseinrichtung (Berechnungseinrichtung)
    10
    Antriebssteuereinheit
    12
    Benachrichtigungseinrichtung
    13
    sich bewegende Plattform
    a1, a2, a3
    O Objekt
    MK
    Markierung
    V
    Fördergeschwindigkeit
    S11
    Anordnungsschritt
    S12
    Optische-Informationen-Erfassungsschritt
    S13
    Erkennungsschritt
    S14
    Berechnungsschritt
    S15
    Arbeitsschritt

Claims (10)

  1. Arbeitssystem (1), umfassend: eine Fördervorrichtung (2), die ein Objekt (O) fördert; eine sich bewegende Plattform (13), die bewegt werden kann; eine Arbeitseinrichtung (3), die an der sich bewegenden Plattform (13) gesichert ist und die eine Arbeit an dem Objekt (O) ausführt, das von der Fördervorrichtung (2) gefördert wird; einen optischen Sensor (4), der an der sich bewegenden Plattform (13) gesichert ist und der sukzessive optische Informationen über das Objekt (O), das von der Fördervorrichtung (2) gefördert wird, oder über eine Markierung (MK), die auf der Fördervorrichtung (2) gebildet ist, erfasst; eine Erkennungseinrichtung (8), die sukzessive mindestens Positionen des Objekts (O) oder der Markierung (MK) erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor (4) erfasst werden in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist; eine Berechnungseinrichtung (12), die eine Fördergeschwindigkeit (V) der Fördervorrichtung (2) auf der Grundlage der Positionen des Objekts (O) oder der Markierung (MK) berechnet, die sukzessive von der Erkennungseinrichtung (8) erkannt werden; und eine Antriebssteuereinheit (10), die die Arbeitseinrichtung (3) unter Verwendung der Fördergeschwindigkeit (V) antreibt, in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist.
  2. Arbeitssystem (1), umfassend: eine Fördervorrichtung (2), die ein Objekt (O) fördert; eine sich bewegende Plattform (13), die bewegt werden kann; eine Arbeitseinrichtung (3), die an der sich bewegenden Plattform (13) gesichert ist und die eine Arbeit an dem Objekt (O) ausführt, das von der Fördervorrichtung (2) gefördert wird; einen optischen Sensor (4), der an der sich bewegenden Plattform (13) gesichert ist und der sukzessive optische Informationen über das Objekt (O), das von der Fördervorrichtung (2) gefördert wird, oder über eine Markierung (MK), die auf der Fördervorrichtung (2) gebildet ist, erfasst; eine Erkennungseinrichtung (8), die sukzessive mindestens Positionen des Objekts (O) oder der Markierung (MK) erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor (4) erfasst werden; eine Berechnungseinrichtung (12), die eine Fördergeschwindigkeit (V) der Fördervorrichtung (2) auf der Grundlage der Positionen des Objekts (O) oder der Markierung (MK) berechnet, die sukzessive von der Erkennungseinrichtung (8) erkannt werden; und eine Antriebssteuereinheit (10), die die Arbeitseinrichtung (3) unter Verwendung der Fördergeschwindigkeit (V) antreibt, wobei, in dem Fall, in dem das Objekt (O) oder die Markierung (MK) nicht in einer Vielzahl der optischen Informationen erkannt wird, die in einem vorbestimmten Zeitraum vom optischen Sensor (4) erfasst werden, die Antriebssteuereinheit (10) die Arbeitseinrichtung (3) antreibt, indem die Fördergeschwindigkeit (V) verwendet wird, die von der Berechnungseinrichtung (9) vor dem vorbestimmten Zeitraum berechnet wurde.
  3. Arbeitssystem (1) nach Anspruch 1 oder 2, wobei die Berechnungseinrichtung (9) einen Betrag der Bewegung des Objekts (O), das auf der Fördervorrichtung (2) gefördert wird, auf der Grundlage der berechneten Fördergeschwindigkeit (V) berechnet, und indem die Position des Objekts (O), die von der Erkennungseinrichtung (8) erkannt wird, und der Betrag der Bewegung des Objekts (O) und die Fördergeschwindigkeit (V), die von der Berechnungseinrichtung (9) berechnet wird, verwendet werden, treibt die Antriebssteuereinheit (10) die Arbeitseinrichtung (3) so an, dass die Arbeit am Objekt (O) ausgeführt wird, während dem Objekt (O), das von der Fördervorrichtung (2) gefördert wird, gefolgt wird.
  4. Arbeitssystem (1) nach Anspruch 1 ferner umfassend: eine Benachrichtigungseinrichtung (12), die, in dem Fall, in dem das Objekt (O) oder die Markierung (MK) nicht in der Vielzahl der optischen Informationen erkannt wird, die vom optischen Sensor (4) in einem vorbestimmten Zeitraum erfasst werden, eine Benachrichtigung ausgibt, die angibt, dass das Fördern des Objekts (O) auf der Fördervorrichtung (2) angehalten wird oder dass die Fördervorrichtung (2) angehalten wird.
  5. Arbeitssystem (1) nach Anspruch 4, wobei in dem Fall, in dem die Benachrichtigungseinrichtung (12) die Benachrichtigung ausgibt, die Antriebssteuereinheit (10) die Arbeit stoppt, die die Arbeitseinrichtung (3) am Objekt (O) ausführt.
  6. Arbeitssystem (1) nach Anspruch 1 bis 5, wobei die Berechnungseinrichtung (9) als Fördergeschwindigkeit (V) einen Durchschnitt von Geschwindigkeiten einer Vielzahl der Objekte (O) oder einen Durchschnitt einer Vielzahl der Markierungen (MK) berechnet.
  7. Verfahren für die Durchführung von Arbeit an einem Objekt (O), das Folgendes umfasst: einen Schritt des Anordnens (S11) einer sich bewegenden Plattform (13), an der eine Arbeitseinrichtung (3) und ein optischer Sensor (4) in der Nachbarschaft einer Fördervorrichtung (2) gesichert sind, die das Objekt (O) fördert; einen Optische-Informationen-Erfassungsschritt (S12) des sukzessiven Erfassens mittels des an der Plattform (13) gesicherten optischen Sensors (4) von optischen Informationen über das Objekt (O), das von der Fördervorrichtung (2) gefördert wird, oder über eine Markierung (MK), die auf der Fördervorrichtung (2) gebildet ist, in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist; einen Erkennungsschritt (S13) des sukzessiven Erkennens von mindestens Positionen des Objekts (O) oder der Markierung (MK), indem die optischen Informationen verarbeitet werden, die vom optischen Sensor (4) erfasst werden; einen Berechnungsschritt (S14) des Berechnens einer Fördergeschwindigkeit (V) der Fördervorrichtung (2) auf der Grundlage der sukzessive erkannten Positionen des Objekts (O) und der Markierung (MK); und einen Arbeitsschritt (S15) des Ausführens unter Verwendung der Fördergeschwindigkeit (V) der Arbeit an dem Objekt (O), das von der Fördervorrichtung (2) gefördert wird, mittels der Arbeitseinrichtung (3), die an der sich bewegenden Plattform (13) gesichert ist, in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist.
  8. Roboter, umfassend: eine Fördervorrichtung (2), die ein Objekt (O) fördert; einen optischen Sensor (4), der an der sich bewegenden Plattform (13) gesichert ist und der sukzessive optische Informationen über das Objekt (O), das von der Fördervorrichtung (2) gefördert wird, oder über eine Markierung (MK), die auf der Fördervorrichtung (2) gebildet ist, erfasst, in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist; eine Erkennungseinrichtung (8), die sukzessive mindestens Positionen des Objekts (O) oder der Markierung (MK) erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor (4) erfasst werden; eine Berechnungseinrichtung, die eine Fördergeschwindigkeit (V) der Fördervorrichtung (2) auf der Grundlage der Positionen des Objekts (O) oder der Markierung (MK) berechnet, die sukzessive von der Erkennungseinrichtung (8) erkannt werden; und eine Antriebssteuereinheit (10), die eine Arbeitseinrichtung (3) unter Verwendung der Fördergeschwindigkeit (V) antreibt, in einem Zustand, in welchem die sich bewegende Plattform (13) in der Nachbarschaft der Fördervorrichtung (2) an ihr gesichert ist.
  9. Verfahren für die Durchführung von Arbeit an einem Objekt (O), das Folgendes umfasst: einen Schritt des Anordnens (S11) einer sich bewegenden Plattform (13), an der eine Arbeitseinrichtung (3) und ein optischer Sensor (4) in der Nachbarschaft einer Fördervorrichtung (2) gesichert sind, die das Objekt (O) fördert; einen Optische-Informationen-Erfassungsschritt (S12) des sukzessiven Erfassens mittels des an der Plattform (13) gesicherten optischen Sensors (4) von optischen Informationen über das Objekt (O), das von der Fördervorrichtung (2) gefördert wird, oder über eine Markierung (MK), die auf der Fördervorrichtung (2) gebildet ist; einen Erkennungsschritt (S13) des sukzessiven Erkennens von mindestens Positionen des Objekts (O) oder der Markierung (MK), indem die optischen Informationen verarbeitet werden, die vom optischen Sensor (4) erfasst werden; einen Berechnungsschritt (S14) des Berechnens einer Fördergeschwindigkeit (V) der Fördervorrichtung (2) auf der Grundlage der sukzessive erkannten Positionen des Objekts (O) und der Markierung (MK); und einen Arbeitsschritt (S15) des Ausführens unter Verwendung der Fördergeschwindigkeit (V) der Arbeit an dem Objekt (O), das von der Fördervorrichtung (2) gefördert wird, mittels der Arbeitseinrichtung (3), die an der sich bewegenden Plattform (13) gesichert ist, wobei, in dem Fall, in dem das Objekt (O) oder die Markierung (MK) nicht in einer Vielzahl der optischen Informationen erkannt wird, die in einem vorbestimmten Zeitraum vom optischen Sensor (4) erfasst werden, in dem Arbeitsschritt (S15) die Arbeitseinrichtung (3) angetrieben wird, indem die Fördergeschwindigkeit (V) verwendet wird, die von der Berechnungseinrichtung (9) vor dem vorbestimmten Zeitraum berechnet wurde.
  10. Roboter, umfassend: eine Fördervorrichtung (2), die ein Objekt (O) fördert; einen optischen Sensor (4), der an der sich bewegenden Plattform (13) gesichert ist und der sukzessive optische Informationen über das Objekt (O), das von der Fördervorrichtung (2) gefördert wird, oder über eine Markierung (MK), die auf der Fördervorrichtung (2) gebildet ist, erfasst; eine Erkennungseinrichtung (8), die sukzessive mindestens Positionen des Objekts (O) oder der Markierung (MK) erkennt, indem die optischen Informationen verarbeitet werden, die vom optischen Sensor (4) erfasst werden; eine Berechnungseinrichtung, die eine Fördergeschwindigkeit (V) der Fördervorrichtung (2) auf der Grundlage der Positionen des Objekts (O) oder der Markierung (MK) berechnet, die sukzessive von der Erkennungseinrichtung (8) erkannt werden; und eine Antriebssteuereinheit (10), die eine Arbeitseinrichtung (3) unter Verwendung der Fördergeschwindigkeit (V) antreibt, wobei, in dem Fall, in dem das Objekt (O) oder die Markierung (MK) nicht in einer Vielzahl der optischen Informationen erkannt wird, die in einem vorbestimmten Zeitraum vom optischen Sensor (4) erfasst werden, die Antriebssteuereinheit (10) die Arbeitseinrichtung (3) antreibt, indem die Fördergeschwindigkeit (V) verwendet wird, die von der Berechnungseinrichtung (9) vor dem vorbestimmten Zeitraum berechnet wurde.
DE102018124712.5A 2017-10-16 2018-10-08 Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter Active DE102018124712B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-200233 2017-10-16
JP2017200233A JP6646026B2 (ja) 2017-10-16 2017-10-16 作業システム、物品に対する作業実施方法、およびロボット

Publications (2)

Publication Number Publication Date
DE102018124712A1 DE102018124712A1 (de) 2019-04-18
DE102018124712B4 true DE102018124712B4 (de) 2021-06-24

Family

ID=65910446

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018124712.5A Active DE102018124712B4 (de) 2017-10-16 2018-10-08 Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter

Country Status (4)

Country Link
US (1) US10850927B2 (de)
JP (1) JP6646026B2 (de)
CN (1) CN109665307B (de)
DE (1) DE102018124712B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020129743A1 (de) 2020-11-11 2022-05-12 Carl Zeiss Ag Vorrichtung und verfahren zur vermessung, inspektion oder bearbeitung von objekten

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10078330B2 (en) * 2016-03-25 2018-09-18 International Business Machines Corporation Coordinating robotic apparatus deliveries
JP6889216B2 (ja) * 2017-10-16 2021-06-18 ファナック株式会社 作業システム
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102490912B1 (ko) * 2018-09-12 2023-01-20 삼성전자주식회사 서버 및 서버의 제어 방법
DE102018132907A1 (de) * 2018-12-19 2020-06-25 Martin Bergmann System zum Aufnehmen, Fördern und Abgeben eines Produkts sowie Verfahren zum Steuern eines solchen Systems
JP7363098B2 (ja) * 2019-05-24 2023-10-18 セイコーエプソン株式会社 ロボットの制御方法
CN110293385B (zh) * 2019-08-03 2024-03-29 福建瑞德成自动化科技有限公司 冷热水陶瓷阀芯自动装配机
CN110637644B (zh) * 2019-08-20 2021-09-10 江苏大学 面向苗床盆栽的设施花卉搬运协同作业控制方法
JP2022061700A (ja) * 2020-10-07 2022-04-19 セイコーエプソン株式会社 ベルトコンベアキャリブレーション方法、ロボット制御方法、ロボットシステム、プログラム
CN112493522B (zh) * 2020-12-15 2023-11-10 广州富港生活智能科技有限公司 食品制作互动方法、计算机可读存储介质及食品制作设备
DE112021007443T5 (de) 2021-06-08 2024-01-25 Fanuc Corporation Produktionssystem
CN113211450A (zh) * 2021-06-17 2021-08-06 宝武集团马钢轨交材料科技有限公司 火车车轮视觉识别定位校准装置及方法
CN114104655B (zh) * 2021-11-13 2022-10-28 浙江安胜科技股份有限公司 链条线跟随方法及装置
DE102022105608B3 (de) * 2022-03-10 2023-09-14 thinkTEC GmbH Vorrichtung zur Vereinzelung und Einzelentnahme von Teilen und Kalibrierverfahren

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001121461A (ja) * 1999-10-26 2001-05-08 Denso Corp ロボットシステム
DE102006031178B4 (de) * 2005-07-07 2008-08-28 Toshiba Kikai K.K. Greiferführungssystem, Bearbeitungssystem und Programm
AT507339B1 (de) * 2008-09-26 2011-06-15 Stiwa Holding Gmbh Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
EP2497611A2 (de) * 2011-03-09 2012-09-12 Omron Corporation Bildverarbeitungsvorrichtung und Bildverarbeitungssystem, und Fördervorrichtung hierfür
DE102013020135A1 (de) * 2013-12-06 2015-06-11 Daimler Ag Verfahren zurn Betreiben einer Produktionsanlage
JP2016032843A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 双腕ロボット
DE102015015638A1 (de) * 2014-12-02 2016-10-13 Fanuc Corporation Vorrichtung und Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters
DE102016115987A1 (de) * 2015-09-03 2017-03-16 Fanuc Corporation Koordinatensystemeinstellungsverfahren, koordinatensystemeinstellungsvorrichtung und robotersystem mit koordinatensystemeinstellungsvorrichtung

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2594423B2 (ja) * 1985-09-02 1997-03-26 三菱電機株式会社 産業用ロボツトの制御装置
JP2658303B2 (ja) * 1988-11-29 1997-09-30 凸版印刷株式会社 間欠供給ワークの自動加工方法
JPH10105217A (ja) 1996-09-27 1998-04-24 Mitsubishi Electric Corp ロボットのトラッキング制御方法およびロボット制御システム
JPH11123677A (ja) * 1997-10-27 1999-05-11 Fujitsu Ltd 搬送ロボットの搬送速度制御方法及びその装置
JP4131078B2 (ja) 2000-06-30 2008-08-13 株式会社デンソー ロボットコントローラ
US6675066B2 (en) * 2001-05-25 2004-01-06 George Koch Sons, Llc Conveyor line process control system and method
JP2007030087A (ja) * 2005-07-26 2007-02-08 Fanuc Ltd 物流トラッキング装置
JP4594241B2 (ja) * 2006-01-06 2010-12-08 東京エレクトロン株式会社 基板搬送装置、基板搬送方法及びコンピュータプログラム
JP2009028818A (ja) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd ロボットシステム
JP2010125583A (ja) * 2008-12-01 2010-06-10 Seiko Epson Corp ロボットアーム装置、ロボットアーム装置の制御方法および制御プログラム
JP5984096B2 (ja) * 2011-08-30 2016-09-06 ディジマーク コーポレイション 物体を識別する方法及び機構
JP2013180366A (ja) 2012-03-01 2013-09-12 Seiko Epson Corp ロボット及びロボットハンド
CN103895042A (zh) * 2014-02-28 2014-07-02 华南理工大学 一种基于视觉引导的工业机器人工件定位抓取方法及系统
WO2016103304A1 (ja) * 2014-12-26 2016-06-30 川崎重工業株式会社 生産システム
JP6505442B2 (ja) * 2015-01-14 2019-04-24 サンナイス株式会社 無人車
JP6333870B2 (ja) 2016-01-28 2018-05-30 ファナック株式会社 複数の機械および少なくとも一つのセンサを備えたシステム
JP6213604B2 (ja) * 2016-04-15 2017-10-18 株式会社安川電機 作業ロボット及び作業システム
JP6478234B2 (ja) 2017-06-26 2019-03-06 ファナック株式会社 ロボットシステム
US10521871B2 (en) 2017-07-12 2019-12-31 Fanuc Corporation Robot system
JP6697510B2 (ja) 2017-07-12 2020-05-20 ファナック株式会社 ロボットシステム
JP6568163B2 (ja) 2017-08-09 2019-08-28 ファナック株式会社 ロボットシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001121461A (ja) * 1999-10-26 2001-05-08 Denso Corp ロボットシステム
DE102006031178B4 (de) * 2005-07-07 2008-08-28 Toshiba Kikai K.K. Greiferführungssystem, Bearbeitungssystem und Programm
AT507339B1 (de) * 2008-09-26 2011-06-15 Stiwa Holding Gmbh Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
EP2497611A2 (de) * 2011-03-09 2012-09-12 Omron Corporation Bildverarbeitungsvorrichtung und Bildverarbeitungssystem, und Fördervorrichtung hierfür
DE102013020135A1 (de) * 2013-12-06 2015-06-11 Daimler Ag Verfahren zurn Betreiben einer Produktionsanlage
JP2016032843A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 双腕ロボット
DE102015015638A1 (de) * 2014-12-02 2016-10-13 Fanuc Corporation Vorrichtung und Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters
DE102016115987A1 (de) * 2015-09-03 2017-03-16 Fanuc Corporation Koordinatensystemeinstellungsverfahren, koordinatensystemeinstellungsvorrichtung und robotersystem mit koordinatensystemeinstellungsvorrichtung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020129743A1 (de) 2020-11-11 2022-05-12 Carl Zeiss Ag Vorrichtung und verfahren zur vermessung, inspektion oder bearbeitung von objekten

Also Published As

Publication number Publication date
JP6646026B2 (ja) 2020-02-14
CN109665307A (zh) 2019-04-23
CN109665307B (zh) 2022-08-23
US20190112134A1 (en) 2019-04-18
DE102018124712A1 (de) 2019-04-18
JP2019072792A (ja) 2019-05-16
US10850927B2 (en) 2020-12-01

Similar Documents

Publication Publication Date Title
DE102018124712B4 (de) Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
DE102016115987B4 (de) Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung
DE102016006252B4 (de) Fertigungssystem mit einem eine Positionskorrekturfunktion aufweisenden Roboter
DE102016000995B4 (de) Förderrobotersystem mit dreidimensionalem Sensor
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102014005434B4 (de) Steuerungseinrichtung für einen Roboter zur Beförderung eines Werkstücks
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102018112820B4 (de) Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102017122857A1 (de) Robotersystem mit einem auf einem beweglichen Gestellwagen getragenen Roboter
DE102010023736B4 (de) Robotersystem mit Problemerkennungsfunktion
DE102017127950B4 (de) Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt
DE102018116413A1 (de) Robotersystem
EP2952296A2 (de) Vorrichtung zum automatisierten entnehmen von in einem behälter angeordneten werkstücken
EP3374134B1 (de) Kalibrieren eines systems mit einem fördermittel und wenigstens einem roboter
EP3587044B1 (de) Verfahren zum greifen von objekten in einem suchbereich und positioniersystem
DE102019101005B4 (de) Objektfördersystem
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102018117829B4 (de) Steuereinheit für Gelenkroboter
DE102018129166A1 (de) Roboter und Robotersystem
EP4046755A1 (de) Vorrichtung zum automatisierten entnehmen von in einem behälter angeordneten werkstücken
DE102020130635A1 (de) Automatisiertes geführtes Robotersystem
DE112016002353T5 (de) Montagevorrichtung und Montageverfahren für einen Zahnradmechanismus
DE102019102859A1 (de) Arbeitsrobotersystem
EP2846943B1 (de) Verfahren zur automatisierten handhabung eines biegewerkzeuges und fertigungseinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final