DE112009001414T5 - Bearbeitungssystem, Steuerungseinrichtung, Steuerungsverfahren und Programm - Google Patents

Bearbeitungssystem, Steuerungseinrichtung, Steuerungsverfahren und Programm Download PDF

Info

Publication number
DE112009001414T5
DE112009001414T5 DE112009001414T DE112009001414T DE112009001414T5 DE 112009001414 T5 DE112009001414 T5 DE 112009001414T5 DE 112009001414 T DE112009001414 T DE 112009001414T DE 112009001414 T DE112009001414 T DE 112009001414T DE 112009001414 T5 DE112009001414 T5 DE 112009001414T5
Authority
DE
Germany
Prior art keywords
workpiece
data
workpieces
robot
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112009001414T
Other languages
English (en)
Inventor
Yasunori Numazu-shi Nishihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Toshiba Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008148468A external-priority patent/JP5198155B2/ja
Priority claimed from JP2008158038A external-priority patent/JP5198161B2/ja
Application filed by Toshiba Machine Co Ltd filed Critical Toshiba Machine Co Ltd
Publication of DE112009001414T5 publication Critical patent/DE112009001414T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49764Method of mechanical manufacture with testing or indicating
    • Y10T29/49769Using optical instrument [excludes mere human eyeballing]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/53Means to assemble or disassemble
    • Y10T29/53039Means to assemble or disassemble with control means energized in response to activator stimulated by condition sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Bearbeitungssystem, umfassend:
eine Fördereinrichtung zum Fördern eines Werkstücks;
einen Roboter, der einen vorbestimmten Arbeitsvorgang an dem Werkstück ausführt;
einen optischen Sensor, der ein Bild des gerade geförderten Werkstücks erfasst und Werkstückdaten erzeugt, die jedes einzelne Werkstück in dem erfassten Bild anzeigen bzw. abbilden, und
eine Steuerungseinrichtung zum Erfassen der Werkstückdaten für jedes der Bilder, um so Standortverfolgungsdaten zu erzeugen, die Standortverfolgungsdaten in einer Datenbank zu sammeln und die Datenbank dazu zu verwenden, um den Roboter so zu steuern, dass dieser den vorbestimmten Arbeitsvorgang an einem geförderten Werkstück an einer Position des Roboters ausführt,
wobei die Steuerungseinrichtung die in der Datenbank angesammelten Standortverfolgungsdaten verarbeitet, einen Ist-Zustand von jedem der Werkstücke, das von der Fördereinrichtung gefördert wird, erkennt und veranlasst, dass der Roboter in Übereinstimmung mit einem Ist-Förderzustand von jedem der Werkstücke betrieben wird.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Bearbeitungssystem zur Bearbeitung eines Werkstücks, das mit einem Bandförderer gefördert wird, mit hoher Effizienz sowie eine entsprechende Steuerungseinrichtung, ein Steuerungsverfahren und ein Programm.
  • STAND DER TECHNIK
  • Ein Bearbeitungssystem ist bekannt, bei dem ein optischer Sensor, der auf einer stromaufwärtigen Seite eines Förderbands angeordnet ist, einen von dem Förderband geförderten Gegenstand (nachfolgend als „Werkstück” bezeichnet) detektiert und Ausgangsdaten des optischen Sensors dazu verwendet werden, um einen von einem Roboter an dem Werkstück ausgeführten Vorgang zu steuern. Beispielsweise verwendet ein Bearbeitungssystem, das in dem nachfolgenden Patentdokument offenbart ist, einen optischen Sensor, um ein Bild von jedem von einem Förderband geförderten Werkstück zu erfassen, um Daten aufzubereiten, die mit jedem Werkstück verknüpft sind, und um die Daten an eine Robotersteuerung zu übermitteln. Die Robotersteuerung unterhält eine Datenbank von empfangenen Daten und führt auf der Grundlage der aus der vorgenannten Datenbank ausgelesenen Daten einen Bearbeitungsvorgang an einem Werkstück aus, das aufgrund der Förderwirkung des Förderbands eine Arbeitsposition des Roboters erreicht.
  • DOKUMENT ZUM STAND DER TECHNIK
  • Patentdokument
    • Patentdokument 1: Japanische Patent-Offenlegungsschrift (A) Nr. 2007-15055 .
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Von der Erfindung zu lösende Aufgaben
  • Das in dem Patentdokument 1 offenbarte System speichert Daten, die von dem optischen Sensor übermittelt werden, sequentiell, um eine Datenbank aufzubauen, und steuert den Betrieb des Roboters in Entsprechung zu dem Inhalt, der in der Datenbank gespeichert ist. Wenn der optische Sensor nacheinander mehrerer Male Bilder erfasst, beinhaltet folglich jedes erfasste Bild einen Abschnitt, der das gleiche Werkstück in überlappender Weise zeigt. Weil die Werkstückdaten in solchen Überlappungsabschnitten ebenfalls in der Datenbank gespeichert werden, können überflüssige bzw. falsche Arbeitsvorgänge des Roboters auftreten. Außerdem ist es so, dass eine Mehrzahl von Werkstücken, die von einem Bandförderer gefördert werden, nicht immer ihrer Reihenfolge entsprechend von der stromaufwärtigen Seite des Fördervorgangs aus bearbeitet werden. Der Betrieb des Roboters wird kompliziert und ein Werkstück, das in Förderrichtung stromabwärts angeordnet ist, kann manchmal nicht mehr bearbeitet werden.
  • Folglich ist es wünschenswert, wiederholt detektierte Abschnitte voneinander zu unterscheiden und Werkstücke, die von dem Bandförderer gefördert werden, in einer Sequenz in effizienter Weise zu bearbeiten.
  • Lösung dieser Aufgabe
  • Ein Bearbeitungssystem gemäß der vorliegenden Erfindung weist auf: eine Fördereinrichtung, um ein Werkstück zu fördern, einen Roboter, der an dem Werkstück einen vorbestimmten Arbeitsvorgang ausführt, einen optischen Sensor, der ein Bild des gerade geförderten Werkstücks erfasst und Werkstückdaten erzeugt, die jedes einzelne Werkstück in dem erfassten Bild anzeigen, sowie eine Steuerungseinrichtung, um die Werkstückdaten für jedes der Bilder zu erfassen, um auf diese Weise Standortverfolgungsdaten zu erzeugen, um die Standortverfolgungsdaten in einer Datenbank anzusammeln und um die Datenbank dazu zu verwenden, um den Roboter so zu steuern, dass dieser den vorbestimmten Arbeitsvorgang für das geförderte Werkstück an einer Position des Roboters ausführt, wobei die Steuerungseinrichtung die in der Datenbank angesammelten Standortverfolgungsdaten verarbeitet, einen Ist-Zustand von jedem der von der Fördereinrichtung geförderten Werkstücke erkennt und veranlasst, dass der Roboter in Entsprechung zu einem Ist-Förderzustand von jedem der Werkstücke betrieben wird.
  • Bei dem Bearbeitungssystem gemäß der vorliegenden Erfindung liest die Steuerungseinrichtung auch die in der Datenbank gespeicherten Werkstückdaten aus, um einen vorbestimmten Bearbeitungsvorgang auszuführen und um eine Sequenz umzuordnen, mit welcher der Roboter Arbeitsvorgänge an einer Mehrzahl von Werkstücken ausführt.
  • Außerdem steuert bei dem Bearbeitungssystem gemäß der vorliegenden Erfindung die Steuerungseinrichtung in solcher Weise, dass mit dem Arbeitsvorgang dort begonnen wird, wo sich das Werkstück an einem stromabwärtigen Ende der Förderung der Fördereinrichtung befindet.
  • Außerdem weist bei dem Bearbeitungssystem gemäß der vorliegenden Erfindung die Steuerungseinrichtung auf: einen Speicherabschnitt, der als die Datenbank Standortverfolgungsdaten speichert, bei denen es sich um die erfassten Werkstückdaten handelt und die von dem optischen Sensor übermittelt werden und die in gleicher Weise für jedes Bild, das von dem optischen Sensor erfasst wird, erfasst werden, einen Verarbeitungsabschnitt, der eine skalare Größe eines Abbildungsvektors von jedem Werkstück anhand von sämtlichen Werkstückdaten, die in den Standortverfolgungsdaten enthalten sind, auffindet und eine Arbeitssequenz, die von dem Roboter auszuführen ist, auf der Grundlage der skalaren Größe des Abbildungsvektors für jedes der Werkstücke umordnet, sowie einen Antriebs-Steuerungsabschnitt, der den Roboter so steuert, dass dieser den Arbeitsvorgang an jedem der Werkstücke entsprechend der von dem Verarbeitungsabschnitt umgeordneten Sequenz ausführt.
  • Außerdem führt bei dem Bearbeitungssystem gemäß der vorliegenden Erfindung der Verarbeitungsabschnitt eine Verarbeitung aus, um ein Skalarprodukt eines Vektors P und eines Vektors Cν aufzufinden, was zu einer skalaren Größe des Abbildungsvektors von jedem der Werkstücke führt, wobei der Vektor P als ein Vektor von irgendeinem Referenzpunkt zu jedem Werkstück definiert ist und wobei der Vektor Cν als Referenzvektor definiert ist, der die Förderrichtung der Fördereinrichtung von diesem beliebigen Referenzpunkt als Vektor Cν bezeichnet.
  • Außerdem führt bei dem Bearbeitungssystem gemäß der vorliegenden Erfindung die Steuerungseinrichtung die vorbestimmte Verarbeitung für die Werkstückdaten für sämtliche Standortverfolgungsdaten aus, die aus der Datenbank ausgelesen werden, um die überlappenden Werkstückdaten zu detektieren, und bricht diese eine Steuerung des Betriebs des Roboters auf der Grundlage der überlappenden Werkstückdaten ab.
  • Außerdem weist bei dem Bearbeitungssystem gemäß der vorliegenden Erfindung die Steuerungseinrichtung auf: einen Steuerungsabschnitt, der sämtliche Standortverfolgungsdaten, die für jedes der Bilder erzeugt werden, als die Datenbank speichert, einen Verarbeitungsabschnitt, der einen Abstand zwischen Werkstücken aus den Werkstückdaten auffindet, die in den Standortverfolgungsdaten enthalten sind, und der die Werkstückdaten-Überlappung auf der Grundlage des Abstands zwischen den Werkstücken abschätzt, sowie einen Antriebs-Steuerungsabschnitt, der den Roboter so steuert, dass dieser einen Arbeitsvorgang für jedes der Werkstücke entsprechend dem Abschätzungsergebnis des Verarbeitungsabschnitts ausführt.
  • Außerdem beurteilt bei dem Bearbeitungssystem gemäß der vorliegenden Erfindung dann, wenn der Abstand zwischen Werkstücken, der anhand der Werkstückdaten ermittelt wird, kleiner als ein vorbestimmter Wert ist, der Verarbeitungsabschnitt, dass die Werkstückdaten, die den Werkstücken mit dem Abstand entsprechen, nicht überlappen.
  • Eine Steuerungseinrichtung gemäß der vorliegenden Erfindung weist auf: eine Speichereinrichtung, eine Verarbeitungseinrichtung, um eine Mehrzahl von Werkstückdaten zu erfassen, die von einem optischen Sensor zum Erfassen von Bildern einer Mehrzahl von gerade mit Hilfe von einer Fördereinrichtung geförderten Mehrzahl von Werkstücken erfasst werden und um entsprechend den Werkstücken für jedes von dem optischen Sensor erfasste Bild Standortverfolgungsdaten zu erzeugen, um zu veranlassen, dass die Speichereinrichtung sämtliche Standortverfolgungsdaten für jedes der Bilder speichert, um sämtliche Standortverfolgungsdaten aus der Speichereinrichtung entsprechend dem Fördervorgang der Fördereinrichtung auszulesen, um eine vorbestimmte Verarbeitung an sämtlichen Werkstückdaten, die allen Standortverfolgungsdaten enthalten sind, auszuführen und um einen Ist-Zustand für jedes der Werkstücke, das gerade von der Fördereinrichtung gefördert wird, zu erkennen, sowie eine Antriebs-Steuerungseinrichtung, um zu veranlassen, dass der Roboter entsprechend dem Ist-Förderzustand von jedem der Werkstücke in Entsprechung zu dem Verarbeitungsergebnis der Verarbeitungseinrichtung betrieben wird um zu bewirken, dass der Roboter einen Arbeitsvorgang an jedem der Werkstücke ausführt.
  • Außerdem verarbeitet in der Steuerungseinrichtung gemäß der vorliegenden Erfindung die Verarbeitungseinrichtung sämtliche Werkstückdaten, um auf diese Weise einander überlappende Werkstückdaten festzustellen, die in einer Mehrzahl von Standortverfolgungsdaten enthalten sind, und löscht die Antriebs-Steuerungseinrichtung die überlappenden Werkstückdaten, die durch die Verarbeitung festgestellt wurden, um den Roboter so zu steuern, dass dieser an jedem Werkstück einen Arbeitsvorgang ausführt, das allen der Werkstückdaten entspricht, die nicht miteinander überlappen.
  • Außerdem verarbeitet in der Steuerungseinrichtung gemäß der vorliegenden Erfindung die Verarbeitungseinrichtung sämtliche Werkstückdaten, um auf diese Weise eine Sequenz zum Ausführen eine Arbeitsvorgangs an jedem Werkstück, das allen Daten der gerade von der Fördereinrichtung geführten Werkstücken entspricht, aufzufinden, und steuert die Antriebs-Steuerungseinrichtung den Roboter so, dass dieser den Arbeitsvorgang an jedem der Werkstücke in Entsprechung zu der Sequenz, die durch die Verarbeitungseinrichtung umgeordnet wurde, auszuführen.
  • Ein Steuerungsverfahren gemäß der vorliegenden Erfindung umfasst: einen ersten Schritt, bei dem ein optischer Sensor Bilder einer Mehrzahl von Werkstücken erfasst, die gerade von einer Fördereinrichtung gefördert werden, und eine Mehrzahl von Werkstückdaten erfasst werden, die jedem einzelnen der Werkstücke entsprechen, um Standortverfolgungsdaten zu erzeugen, einen zweiten Schritt zum jeweiligen Speichern der Standortverfolgungsdaten von jedem der Bilder in einer Datenbank, einen dritten Schritt zum Ausführen einer vorbestimmten Verarbeitung an sämtlichen Werkstückdaten, die in den einzelnen Standortverfolgungsdaten der Datenbank enthalten sind, in Entsprechung zu dem Fördervorgang durch die Fördereinrichtung, um auf diese Weise einen Ist-Zustand von jedem der gerade von der Fördereinrichtung geförderten Werkstücke zu erkennen, sowie einen vierten Schritt um zu veranlassen, dass der Roboter in Entsprechung zu dem Ist-Förderzustand von jedem der Werkstücke betrieben wird, so dass dieser an jedem der Werkstücke einen Arbeitsvorgang ausführt.
  • Außerdem beinhaltet das erfindungsgemäße Steuerungsverfahren in dem dritten Schritt das Ausführen eines Verarbeitungsschrittes, um miteinander überlappende Werkstückdaten festzustellen, die in der Mehrzahl von Standortverfolgungsdaten enthalten sind, und in dem vierten Schritt das Löschen der festgestellten, einander überlappenden Werkstückdaten und das Steuern des Roboters, so dass dieser den Arbeitsvorgang an jedem der Werkstücke in Entsprechung zu den Werkstückdaten ausführt, die nicht miteinander überlappen.
  • Außerdem beinhaltet das erfindungsgemäße Steuerungsverfahren in dem dritten Schritt das Ausführen eines Verarbeitungsschrittes, um eine Sequenz zum Ausführen eines Arbeitsvorgangs an gerade von der Fördereinrichtung geförderten Werkstücken umzuordnen, sowie in dem vierten Schritt eine Steuerungsung des Roboters dergestalt, dass dieser an jedem der Werkstücke in Entsprechung zu der umgeordneten Sequenz einen Arbeitsvorgang ausfährt.
  • Ein Programm gemäß der vorliegenden Erfindung veranlasst, dass ein Computer die folgenden Routinen ausführt: eine erste Routine, so dass ein optischer Sensor Bilder einer Mehrzahl von gerade von einer Fördereinrichtung geförderten Werkstücken erfasst und so dass von dem optischen Sensor Werkstückdaten eingegeben werden, die von diesem optischen Sensor erzeugt wurden, eine zweite Routine zum Erfassen der eingegebenen Werkstückdaten für jedes Bild, das von dem optischen Sensor erfasst wurde, um Standortverfolgungsdaten zu erzeugen und diese in einer Datenbank zu speichern. Eine dritte Routine zum Auslesen der Standortverfolgungsdaten aus der Datenbank in Entsprechung zu dem Fördervorgang der Fördereinrichtung, zum Ausführen eines vorbestimmten Verarbeitungsschrittes an sämtlichen Werkstückdaten, die in den ausgelesenen Standortverfolgungsdaten enthalten sind, um auf diese Weise einen Ist-Zustand für jedes der gerade von der Fördereinrichtung geförderten Werkstücke zu erkennen, sowie eine vierte Routine um zu veranlassen, dass der Roboter in Entsprechung zu dem Ist-Förderzustand von jedem der Werkstücke in Entsprechung zu dem Ergebnis der Verarbeitung betrieben wird, und um zu bewirken, dass der Roboter an jedem der Werkstücke einen Arbeitsvorgang ausführt.
  • Wirkungen der Erfindung
  • Gemäß dem Bearbeitungssystem nach der vorliegenden Erfindung wird ein überflüssiger Betrieb des Roboters vermieden und kann ein Arbeitsvorgang an den geförderten Werkstücken mit hoher Effizienz ausgeführt werden.
  • Außerdem kann mithilfe der Steuerungseinrichtung gemäß der vorliegenden Erfindung der Roboter dazu gebracht werden, einen Arbeitsvorgang unter Verwendung von Werkstückdaten, die durch den optischen Sensor eingegeben werden, mit hoher Effizienz auszuführen.
  • Außerdem wird gemäß dem Steuerungsverfahren nach der vorliegenden Erfindung ein überflüssiger Arbeitsvorgang des Roboters vermieden und kann ein Arbeitsvorgang an den geförderten Werkstücken mit hoher Effizienz ausgeführt werden.
  • Außerdem wird mithilfe des Programms gemäß der vorliegenden Erfindung ein überflüssiger Betrieb des Roboters vermieden und kann ein Arbeitsvorgang an den geförderten Werkstücken mit hoher Effizienz ausgeführt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigen:
  • 1 eine erläuternde Ansicht, die den schematischen Aufbau eines Bearbeitungssystems gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 2 ein Blockdiagramm, das die Auslegung eines optischen Sensors, eines Roboters und eines Roboter-Controllers zeigt, die das Bearbeitungssystem gemäß dem ersten Ausführungsbeispiel bilden;
  • 3 ein Flussdiagramm, das einen Betrieb des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel zeigt;
  • 4 eine erläuternde Ansicht, die den Betrieb des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel zeigt;
  • 5 eine erläuternde Ansicht, die den Betrieb des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel zeigt;
  • 6 eine erläuternde Ansicht, die einen Überlappungsabschnitt von Standortverfolgungsdaten zeigt, die von einem Verarbeitungsabschnitt des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel verarbeitet werden;
  • 7 ein Flussdiagramm, das den Betrieb des Verarbeitungsabschnitts des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel zeigt;
  • 8 ein Flussdiagramm, das den Betrieb eines Bearbeitungssystems gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 9 eine erläuternde Ansicht, die den Betrieb des Bearbeitungssystem gemäß dem zweiten Ausführungsbeispiel zeigt;
  • 10 eine erläuternde Ansicht, die eine Verarbeitung zeigt, die durch den Roboter-Controller des Bearbeitungssystems gemäß dem zweiten Ausführungsbeispiel ausgeführt wird;
  • 11 eine erläuternde Ansicht, die den Betrieb eines Bearbeitungssystems gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • Nachfolgend werden Ausführungsbeispiele gemäß der Erfindung erläutert.
  • Erstes Ausführungsbeispiel
  • 1 ist eine erläuternde Ansicht, die schematisch die Auslegung eines Bearbeitungssystems nach einem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt. Das dargestellte Bearbeitungssystem 1 ist mit einem Förderband 2, einem optischen Sensor 3, einem Roboter 4, einem Roboter-Controller 5 und einem Förderband-Messgeber 6 ausgestattet.
  • Das Förderband 2 dient zur Erläuterung einer Fördereinrichtung zum Fördern eines Werkstücks 10 als Beispiel für einen gerade in Bearbeitung befindlichen Gegenstand in Richtung eines Fördervektors A, der in der Figur durch einen Pfeil angedeutet ist. Der optische Sensor ist so angeordnet, um Bilder einer Mehrzahl von Werkstücken 10, die auf einer Band-Förderfläche 2a des Förderbands 2 abgelegt sind, an einer Position auf einer stromaufwärtigen Förderseite des Förderbands 2 zu erfassen. Außerdem ist der optische Sensor 3 über ein LAN mit einem später zu erläuternden Roboter-Controller 5 verbunden, um auf diese Weise die Ausgabedaten auszugeben, d. h. Werkstückdaten S3a und ein Triggersignal S3b, das den Zeitpunkt der Erfassung anzeigt.
  • Der Roboter 4 ist mit einem Halteabschnitt 4a, der das gerade von dem Förderband 2 geförderte Werkstück 10 beispielsweise Teil für Teil greift, sowie mit einem Armabschnitt 4b ausgestattet, der den Halteabschnitt 4a beweglich innerhalb eines vorbestimmten Bereichs trägt.
  • Der Roboter-Controller 5 dient zur Erläuterung einer Steuerungseinrichtung, die verbunden bzw. angeschlossen ist, um den Betrieb des Roboters 4 zu steuern. Außerdem ist der Roboter-Controller 5 verbunden, um ein Ausgangssignal S6 des Förderband-Messgebers 6, das später erläutert wird, und die Werkstückdaten S3a und das Triggersignal S3b, die von dem optischen Sensor 3 übermittelt werden, über eine Datenübertragungsleitung etc., wie vorstehend erläutert, einzugeben.
  • Der Förderband-Messgeber 6 dient zur Erläuterung einer Bewegungs-Detektionseinrichtung, um eine Förderdistanz des Förderbands 2 zu detektieren, d. h. um die Größe der Bewegung des auf der Band-Förderfläche 2a abgesetzten Werkstücks 10 festzustellen. Das Ausgangssignal S6 des Förderband-Messgebers 6, d. h. das Ausgangssignal S6, das die Größe der Bewegung des Förderbands anzeigt, wird an den Roboter-Controller 5 ausgegeben.
  • Es sei darauf hingewiesen, dass in der 1 beispielhaft eine Konfiguration dargestellt ist, die einen Roboter 4 und einen Roboter-Controller 5, der den Roboter 4 steuert, vorsieht. Das System kann jedoch ausgelegt werden, um eine Mehrzahl von Robotern 4 und auch eine Mehrzahl von Roboter-Controllern 5 vorzusehen. Insbesondere ist beispielsweise ein Router vorgesehen, um die Werkstückdaten S3a und das Triggersignal S3b, die von dem optischen Sensor 3 an eine Datenübertragungsleitung übermittelt werden, zu empfangen. Eine Mehrzahl von Roboter-Controllern 5 ist mit diesem Router verbunden. Mithilfe dieser Auslegung kann jeder Roboter-Controller 5 die Werkstückdaten S3a und das Triggersignal S3b eingeben, die für den Verarbeitungsvorgang selbst von dem vorgenannten Router verwendet werden, und den jeweiligen Roboter 4 steuern.
  • Die 2 ist ein Blockdiagramm, das die Auslegung des optischen Sensors, Roboters und Roboter-Controllers zeigt, welche von dem Bearbeitungssystem gemäß dem ersten Ausführungsbeispiel umfasst sind. Der optische Sensor 3 ist mit einer Kamera 11 und einem Bildverarbeitungsabschnitt 12 versehen. Die Kamera ist beispielsweise eine CCD-Kamera. Die Kamera 11 ist so angeordnet, um ein Bild von der Förderband-Förderfläche 2a, auf der das Werkstück 10 angeordnet ist, zu erfassen, und ist so angeordnet, dass beispielsweise ein Standortverfolgungsbereich S, der in der 1 gezeigt ist, zu einem Zeitpunkt zu einem Erfassungsbereich wird.
  • Der Bildverarbeitungsabschnitt 12 ist ausgelegt, um die Bilddaten, die von der Kamera 11 ausgegeben werden, zu verarbeiten und die später erläuterten Werkstückdaten S3a zu erzeugen. Außerdem ist der optische Sensor 3 mit einem nicht gezeigten Datenübertragungsabschnitt etc. versehen, um das Triggersignal, das den Zeitpunkt einer Erfassung der Kamera 11 anzeigt, und die Werkstückdaten S3a, die vorstehend erläutert wurden, an die Datenübertragungsleitung zu übermitteln.
  • Der Roboter-Controller 5 ist mit einem Eingabeabschnitt 13, einem Display-Abschnitt 14, einem Verarbeitungsabschnitt 15, einem Speicherabschnitt 16 und einem Antriebs-Steuerungsabschnitt 17 versehen. Der Eingabeabschnitt 13 ist ausgelegt, so dass ein Benutzer einen Einstellvorgang etc. ausführen kann, und ist so verbunden, dass die Einstellgrößen in den Verarbeitungsabschnitt 15 eingegeben werden können. Der Display-Abschnitt 14 ist mit dem Verarbeitungsabschnitt 15 verbunden, um die Betriebs-/Einstellgrößen, die vorstehend erläutert wurden, und den Betriebszustand etc. des Roboters 4 anzuzeigen.
  • Der Verarbeitungsabschnitt 15 ist mit einem Datenverwaltungsabschnitt 15a, einem Standortverfolgungsmanager 15b und einem Werkstückmanager 15c ausgestattet. Der Datenverwaltungsabschnitt 15a ist ausgelegt, um einen Verarbeitungsschritt auszuführen um zu bewirken, dass der Speicherabschnitt 16 sämtliche Daten speichert, und um einen Vorgang auszuführen, um die Daten aus dem Speicherabschnitt 16 auszulesen.
  • Der Standortverfolgungsmanager 15b ist ausgelegt, um die Position, die durch jede der Standortverfolgungsdaten D1 angegeben wird, zu überwachen, mit anderen Worten den Standortverfolgungsbereich S. Der Werkstückmanager 15c ist ausgelegt, um das Werkstück 10 aus einer Mehrzahl von Werkstücken 10 auszuwählen, die innerhalb des Standortverfolgungsbereichs S vorliegen, für die der Roboter 4 dazu veranlasst werden soll, einen Arbeitsvorgang auszuführen.
  • Der Speicherabschnitt 16 speichert die Standortverfolgungsdaten D1 entsprechend der Steuerung des Verarbeitungsabschnitts 15 und die Datenbank ist ausgelegt, um eine Mehrzahl von Standortverfolgungsdaten D1 zu speichern. Die Standortverfolgungsdaten D1 umfassen eine Anzahl von Werkstücken 10, die aus den Bilddaten extrahiert werden, die durch einen einmaligen Erfassungsvorgang mithilfe des optischen Sensors 3 erhalten wurden, die Werkstückdaten S3a von jedem extrahierten Werkstück 10 sowie die Größe der Bewegung, die durch das Ausgangssignal S6 des Förderband-Messgebers 6 angezeigt wird.
  • Der Antriebs-Steuerungsabschnitt 17 ist verbunden und ausgelegt, um Steuersignale zum Treiben von später erläuterten Abschnitten des Roboters 4 zu erzeugen und den Roboter 4 zu betreiben. Der Roboter 4 ist mit einem Haltemotor 18 zum Antreiben eines Halteabschnitts 4a und einem Armmotor 19 zum Antreiben eines Armabschnitts 4b zum Tragen des Halteabschnitts 4a versehen.
  • Die 3 ist ein Flussdiagramm, das den Betrieb des Bearbeitungssystems nach dem ersten Ausführungsbeispiel zeigt. Auf der stromaufwärtigen Seite der Förderwirkung des Förderbands 2 erfasst der optische Sensor 3 Bilder innerhalb eines konstanten Erfassungsbereichs ausgehend von dem Ende der stromaufwärtigen Seite der Band-Förderfläche 2a oder einem Bilderfassungs-Ursprung 20a in der Nähe der Band-Förderfläche 2a, wobei es sich bei dem erfassten Bild beispielsweise um Bilder innerhalb des Standortverfolgungsbereichs S handeln kann. Genauer gesagt erfasst die Kamera 11 gemäß der 2 ein Bild des Standortverfolgungsbereichs S von der Band-Förderfläche 2a zu seinem eigenen Erfassungs-Zeitpunkt. (Schritt S1).
  • Der Datenverarbeitungsabschnitt 12 entnimmt eine Form des Werkstücks 10, das in dem Bild des Standortverfolgungsbereichs S enthalten ist, vergleicht diese Form mit Formdaten etc. für jede Art (jeden Typ) von Werkstück, welche von dem Bildverarbeitungsabschnitt 12 selbstgespeichert sind, und identifiziert die Art des Werkstücks 10.
  • Außerdem stellt der Bildverarbeitungsabschnitt 12 Koordinatenwerte für jeden Abschnitt des Werkstücks 10 anhand von Bildern innerhalb des Standortverfolgungsbereichs S fest und erzeugt die Werkstückdaten S3a dieses Werkstücks 10 (Schritt S2). Diese Koordinatenwerte sind Werte, die in einem Koordinatensystem ausgedrückt sind, das in jedem in der Kamera 11 oder einem optischen Sensor 3 selbst ausgeführten Verarbeitungsschritt verwendet wird. Es sei darauf hingewiesen, dass der optische Sensor 3 auch Koordinatenwerte erzeugen kann, die eine Stellung des Werkstücks in den Werkstückdaten S3a angeben.
  • Der optische Sensor 3 übermittelt die erzeugten Werkstückdaten S3a sequentiell an den Roboter-Controller 5, wie vorstehend erläutert (Schritt S3). Gleichzeitig übermittelt der optische Sensor 3 die Werkstückdaten S3a von sämtlichen Werkstücken 10, die in einem Bild enthalten sind, sowie Daten, welche die Anzahl der Werkstückdaten S3a bezeichnen, in Entsprechung zu einem Triggersignal S3b.
  • Die 4 ist eine erläuternde Ansicht, die den Betrieb des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel zeigt. Dieses Diagramm drückt den Betrieb aus, bei dem der Datenverwaltungsabschnitt 15a des Roboter-Controllers 5 sämtliche Werkstückdaten S3a, die von dem optischen Sensor 3 gesendet werden, in dem Speicherabschnitt 16 speichert.
  • Wenn der vorstehend erläuterte Datenübermittlungsabschnitt etc. die Mehrzahl von Werkstückdaten S3a empfängt, die von dem optischen Sensor 3 für jedes Triggersignal S3b übermittelt werden, erfasst der Datenverwaltungsabschnitt 15a diese Werkstückdaten S3a gesamthaft, um auf diese Weise die Standortverfolgungsdaten D1 zu erzeugen. Außerdem fügt der Datenverwaltungsabschnitt 15a die Größe der Bewegung des Förderbands 2, die durch das von dem Förderband-Messgeber 6 eingegebene Ausgangssignal S6 angezeigt wird, im Laufe des Schritts S4 gemäß der 3 hinzu, um die vorstehend beschriebenen Standortverfolgungsdaten D1 zu erzeugen, und speichert die resultierenden Standortverfolgungsdaten in dem Speicherabschnitt 16 ab, um die Datenbank aufzubauen.
  • Die 4 zeigt die Standortverfolgungsdaten D1, die anhand des von dem optischen Sensor erfassten Bildes erzeugt wurden, in der [i – 1]-ten Reihenfolge bzw. Position als Standortverfolgungsdaten Trk[i – 1] an. Außerdem zeigt die 4 die Standortverfolgungsdaten D1, die anhand des von dem optischen Sensor 3 erfassten Bildes erzeugt wurden, in der [i]-ten Reihenfolge bzw. Position als Standortverfolgungsdaten Trk[i] an. Außerdem zeigt die 4 die Standortverfolgungsdaten D1, die anhand des durch den optischen Sensor 3 erfassten Bildes erzeugt wurden, in der [i + 1]-ten Reihenfolge bzw. Position als Standortverfolgungsdaten Trk[i + 1] an.
  • Die in der 4 gezeigten Standortverfolgungsdaten Trk[i] stellen beispielsweise die Daten zum Zeitpunkt der Detektion von zehn (10) Werkstücken 10 aus dem Standortverfolgungsbereich S dar, die mithilfe des optischen Sensors 3 in der [i]-ten Reihenfolge bzw. Position erfasst wurden und diese umfassen die Werkstückdaten Wrk[0] bis Wrk[9].
  • Wenn beispielsweise die vorstehend beschriebenen Standortverfolgungsdaten Trk[i] erzeugt werden, sichert der Datenverwaltungsabschnitt 15a beim Erhalt des Triggersignals S3b, das zum Zeitpunkt [i] von dem optischen Sensor 3 abgesandt wird, einen Bereich zum Speichern der Standortverfolgungsdaten Trk[i], die mit diesem Triggersignal S3b verknüpft sind, in dem Speicherabschnitt 16.
  • Außerdem speichert der Datenverwaltungsabschnitt 15a das Ausgangssignal S6, das von dem Förderband-Messgeber 6 eingegeben wird, d. h. hier die Daten, welche die Größe der Bewegung des Förderbands 2 anzeigen, als eine Komponente der Standortverfolgungsdaten Trk[i], wie vorstehend erläutert, in dem Speicherabschnitt 16. Außerdem legt der Datenverwaltungsabschnitt 15a ab bzw. speichert dieser sequentiell die Werkstückdaten Wrk[0] bus Wrk[9], die von dem optischen Sensor 3 übermittelt werden, in dem Bereich der Standortverfolgungsdaten Trk[i], die in dem Speicherabschnitt 16 gesichert wurden, wie vorstehend erläutert.
  • Es sei darauf hingewiesen, dass zur Erleichterung des Verständnisses in der 4 zwei Werkstücke 10 in dem [i]-ten Standortverfolgungsbereich S gezeigt sind, d. h. dass eine Beschreibung von sämtlichen Werkstücken 10 innerhalb des [i]-ten Standortverfolgungsbereichs weggelassen wurde. Außerdem handelt es sich bei den Zahlen [i – 1], [i], [i + 1] etc., welche die Reihenfolge der Erfassung mit Hilfe des optischen Sensors 3 anzeigen, um Ganzzahlwerte, die als Standortverfolgungszahlen zu den Standortverfolgungsdaten D1 hinzugefügt werden.
  • Die Werkstückdaten S3a, die von dem optischen Sensor 3 an den Roboter-Controller 5 sequentiell übermittelt werden, umfassen beispielsweise die Werkstückdaten Wrk[0] bis Wrk[9], wie in der 4 gezeigt. Die Werkstückdaten Wrk[0] bis Wrk[9] weisen X-Koordinatendaten und Y-Koordinatendaten des von dem optischen Sensor 3 verwendeten Koordinatensystems zur eigenen Weiterverarbeitung sowie C-Koordinatendaten auf, welche eine Drehung in der X-Y-Ebene darstellen.
  • Außerdem sind den Werkstückdaten Wrk[0] bis Wrk[09] eine Mehrzahl von weiteren Daten hinzugefügt, beispielsweise zusätzliche Daten (1) bis (3). Bei den zusätzlichen Daten (1) bis (3) handelt es sich um Daten, die Zustände etc. angeben, die mit verschiedenen Bearbeitungsvorgängen im Zusammenhang stehen und die beispielsweise den Typ etc. anzeigen, wie dieser mit Hilfe des optischen Sensors 3, wie vorstehend erläutert, aufgelöst wird. Diese zusätzliche Daten (1) bis (3) werden in dem optischen Sensor 3 je nach den Wünschen eines Benutzers eingestellt.
  • Der Bildverarbeitungsabschnitt 12 des optischen Sensors 3 führt für jedes Bild, das durch die Kamera 11 erfasst wird, wie vorstehend erläutert, einen Verarbeitungsvorgang aus. Wenn die Kamera 11 betrieben wird, um sequentiell Bilder der Förderfläche 2a des Förderbands 2 zu erfassen, beispielsweise um Bilder zu erfassen, während Endabschnitte angeordnet bzw. bearbeitet werden, so dass in jedem Bild einander überlappende Abschnitte nicht zulässig sind, wird die gesamte Form des Werkstücks 10, die in dem Endabschnitt eines Bildes aufgenommen wird, manchmal nicht in das Bild hineinpassen.
  • In einem solchen Fall kann der Bildverarbeitungsabschnitt 12 ein Werkstück 10, dessen gesamte Form nicht in ein einzelnes Bild hineinpasst, nicht richtig erkennen, so dass es eine Wahrscheinlichkeit dafür gibt, dass die Werkstückdaten S3a nicht erzeugt werden können oder dass anormale Daten erzeugt werden. Aus diesem Grund erfasst der optische Sensor 3, wenn dieser Bilder von der Förderfläche 2a des Förderbands 2 erfasst, die Bilder in solcher Weise, dass die Endabschnitte von Bildern miteinander überlappen, um auf diese Weise fehlende Teile der aufgenommenen Bilder des Werkstücks 10 zu unterdrücken bzw. zu verhindern, so dass Werkstückdaten S3a, die jedem Werkstück 10 entsprechen, zuverlässig erzeugt werden.
  • Die 5 ist eine erläuternde Ansicht, die den Betrieb des Bearbeitungssystems 2 gemäß dem ersten Ausführungsbeispiel zeigt. Die Standortverfolgungsdaten D1 gemäß der 5 sind mit Standortverfolgungszahlen dargestellt, die dazugehörige Erfassungsreihenfolgen anzeigen, und zwar in der gleichen Weise wie die in der 4 gezeigten Standortverfolgungsdaten D1.
  • Wenn der Roboter-Controller 5 sämtliche Werkstückdaten S3a, die von dem optischen Sensor empfangen werden, als Standortverfolgungsdaten D1 in der Datenbank speichert, so gibt es tatsächlich einen Überlappungsbereich in jedem Standortverfolgungsdatensatz D1, wie in der 5 gezeigt. Denn in dem Prozessschritt des Schrittes S4, der vorstehend erläutert wurde, speichert der Datenverwaltungsabschnitt 15a des Roboter-Controllers 5 jeden Standortverfolgungsdatensatz D1 einschließlich eines Überlappungsbereichs, der vorstehend erläutert wurde, in dem Speicherabschnitt 16 ab.
  • Jedes Werkstück 16, das mithilfe des optischen Sensors 3 auf der stromaufwärtigen Förderseite des Förderbands 2 erfasst wird, wird zu derjenigen Position gefördert, wo sich der Roboter 4 befindet, und zwar nach Verstreichen eines vorbestimmten Zeitintervalls. Der Roboter-Controller 5 steuert den Betrieb des Roboters 4 unter Verwendung der Datenbank, die in dem Speicherabschnitt 16 gespeichert ist, und führt den Bearbeitungsvorgang für das Werkstück 10 aus, das zu der Position des Roboters 4 gefördert wurde. Der Bearbeitungsvorgang des Roboters 4 wird in einem Werkstück-Detektionsbereich ausgeführt, der zwischen einem Werkstück-Detektionsbereich-Startpunkt 20b und einem Werkstück-Detektionsbereich-Endpunkt 20c vorgesehen ist, wie in der 1 gezeigt.
  • Der Standortverfolgungsmanager 15b des Roboter-Controllers 5 überwacht die Daten, welche die Größe der Bewegung des Förderbands 2 anzeigen und in jedem Standortverfolgungsdatensatz D1 enthalten sind, und detektiert die Position von jedem Werkstück 10 während des Fördervorgangs. Genauergesagt extrahiert der Standortverfolgungsmanager 15b die Daten, welche die Größe der Bewegung anzeigt, aus jedem Standortverfolgungsdatensatz D1, der in der Datenbank gespeichert ist.
  • Außerdem verwendet der Standortverfolgungsmanager 15b die Daten, welche die Größe der Bewegung anzeigen und die wie vorstehend beschrieben extrahiert wurden, um zu erkennen, welche Standortverfolgungsdatensätze D1 des Standortverfolgungsbereichs S einander während einer Bewegung in dem Werkstück-Detektionsbereich entsprechen. Der Standortverfolgungsmanager 15b liest die vorstehend erkannten Standortverfolgungsdatensätze D1 unter Verwendung des Datenverwaltungsabschnitts 15a aus dem Speicherabschnitt 16 aus.
  • Der Standortverfolgungsdatensatz D1, der sequentiell von dem Standortverfolgungsmanager 15b ausgelesen wird, enthält die miteinander überlappenden Werkstückdaten S3a, wie vorstehend erläutert. Der Verarbeitungsabschnitt 15 des Roboter-Controllers 5 führt in geeigneter Weise einen Verarbeitungsvorgang aus, um den Überlappungsbereich jedes Standortverfolgungsdatensatzes D1 zu detektieren, der von dem Standortverfolgungsmanager 15b sequentiell aus der Datenbank ausgelesen wurde, und zwar in dem Prozessschritt S5 gemäß der 3.
  • Die 6 ist eine erläuternde Ansicht, die einen Überlappungsbereich der Standortverfolgungsdaten zeigt, die von dem Verarbeitungsabschnitt des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel verarbeitet wurden. In der 6 sind die Standortverfolgungsdaten D1, die von dem Verarbeitungsabschnitt 15 sequentiell aus dem Speicherabschnitt 16 ausgelesen werden, beispielsweise definiert als Standortverfolgungsdaten Trk[i – 1] und als die diesen darauffolgenden Standortverfolgungsdaten Trk[i].
  • Außerdem gibt es einen Überlappungsbereich d0 in den angrenzenden Abschnitten der Standortverfolgungsdaten Trk[i – 1] und der Standortverfolgungsdaten Trk[1] in der 6. In dem Überlappungsbereich d0 gibt es zwei Werkstückdaten S3a. Diese Werkstückdaten S3a entsprechen einem Werkstück 10a und einem Werkstück 10b.
  • In dem beispielhaften Standortverfolgungsdatensatz D1 in der 6 enthält der Standortverfolgungsdatensatz Trk[i – 1] Werkstückdaten S3a der Werkstücke 10a, 10b und 10c und enthält der Standortverfolgungsdatensatz Trk[i] jeweils Werkstückdaten S3a der Werkstücke 10a, 10b und 10d. Zu diesem Zeitpunkt führt der Verarbeitungsabschnitt 15 einen Verarbeitungsschritt aus, um die Werkstücke 10a und 10b zu detektieren, die in dem Überlappungsbereich d0 des Standortverfolgungsdatensatzes Trk[i] mit dem Standortverfolgungssatz Trk[i – 1] vorliegt.
  • In dem Prozessschritt des Schrittes S5 gemäß der 3 liest der Verarbeitungsabschnitt 15 sequentiell den Standortverfolgungsdatensatz Trk[i] und den Standortverfolgungsdatensatz Trk[i – 1] aus der Datenbank aus, wie vorstehend erläutert. Außerdem findet der Verarbeitungsabschnitt 15 einen relativen Abstand zwischen den Werkstücken unter Verwendung der Koordinatenwerte der Werkstückdaten S3a, die in diesen Standortverfolgungsdaten D1 enthalten sind. Genauer gesagt findet beispielsweise der Verarbeitungsabschnitt 15 die Abstände zwischen dem Werkstück 10a des Standortverfolgungsdatensatzes Trk[i] und den Werkstücken 10a, 10b und 10c des Standortverfolgungsdatensatzes Trk[i – 1] heraus.
  • Die 7 ist ein Flussdiagramm, das den Betriebsablauf des Verarbeitungsabschnitts des Bearbeitungssystems gemäß dem ersten Ausführungsbeispiel zeigt. Der Verarbeitungsabschnitt 15 wählt aus dem Standortverfolgungsdatensatz Trk[i], der aus der Datenbank ausgelesen wird, wie vorstehend erläutert, irgendeinen Werkstückdatensatz S3a aus, beispielsweise die Werkstückdaten S3a des Werkstücks 10a auf der unteren linken Seite in der 6 (Schritt S11). Als nächstes wählt der Verarbeitungsabschnitt aus dem Standortverfolgungsdatensatz Trk[i – 1], der zuvor aus der Datenbank ausgelesen wurde, irgendeinen Werkstückdatensatz S3a aus, beispielsweise das Werkstück 10a auf der unteren rechten Seite in der 6 (Schritt S12).
  • Der Verarbeitungsabschnitt 15 verwendet die in dem Prozessschritt S11 ausgewählten Werkstückdaten S3a und die in dem Prozessschritt S12 ausgewählten Werkstückdaten S3a (Schritt S13), um den Abstand zwischen den durch diese Werkstückdaten S3a angezeigten Werkstücken mithilfe eines Verarbeitungsschrittes herauszufinden. Beispielsweise legt der Verarbeitungsabschnitt die Koordinatenwerte der Werkstückdaten S3a, die in dem Prozessschritt S11 ausgewählt wurden, als (x2, y2) fest und die Koordinatenwerte der Werkstückdaten S3a, die in dem Prozessschritt S12 ausgewählt wurden, als (x1, y1) fest. Ein Abstand Δ zwischen den Werkstücken, der diesen Werkstückdaten S3a entspricht, kann gemäß der nachfolgenden Gleichung (1) aufgefunden werden. Δ = ((x2 – x1)2 + (y2 – y1)2)1/2 (1)
  • Der Verarbeitungsabschnitt 15 vergleicht den Abstand Δ, der entsprechend dem Verarbeitungsschritt gemäß der Gleichung (1) aufgefunden wurde, mit einem vorbestimmten Überlappungsschätzwert Δmax, der im Voraus eingestellt wurde, und schätzt ab, ob der Abstand Δ nicht größer ist als der vorbestimmte Überlappungsschätzwert Δmax (Schritt S14).
  • Wenn das Ergebnis der Abschätzung in dem Prozessschritt S14 so ist, dass der Abstand Δ nicht größer ist als der vorbestimmte Überlappungsschätzwert Δmax, bricht der Verarbeitungsabschnitt 15 den Arbeitsvorgang für das Werkstück durch den Werkstückmanager 15c ab (Schritt S15).
  • Es sei darauf hingewiesen, dass es sich bei den Koordinatenwerten (x2, y2) und den Koordinatenwerten (x1, y1), die hierbei verarbeitet werden, beispielsweise um Werte handelt, die unter Verwendung eines absoluten Ursprungs, der in der Nähe des Förderbands 2 vorgesehen ist, dargestellt werden, sowie um Koordinatenwerte, die von dem Verarbeitungsabschnitt 15 dadurch erzeugt werden, dass die Größe der Bewegung, die durch das Ausgangssignal S6 angezeigt wird, das von dem Förderband-Messgeber 6 eingegeben wird, hinzugefügt wird. Die von dem Verarbeitungsabschnitt 15 verarbeiteten Koordinatenwerte sind beispielsweise Werte eines Welt-Koordinatensystems, das zur Steuerung des Roboters 4 verwendet wird, während der Abstand Δ zwischen den Werkstücken, der wie vorstehend erläutert herausgefunden wird, ein relativer Wert ist.
  • Unter Verwendung des relativen Wertes wird der Verarbeitungsabschnitt 15 in die Lage versetzt, den Abstand Δ zwischen den Werkstücken in geeigneter Weise zu vergleichen, und zwar unabhängig von dem Koordinatensystem, das von dem optischen Sensor 3 dazu verwendet wird, um die Werkstückdaten S3a zu erzeugen.
  • In dem vorstehend erläuterten Prozessschritt S14 nimmt der Verarbeitungsabschnitt 15 wie folgt eine Abschätzung vor, wenn das Vergleichsergebnis erhalten wird, das anzeigt, dass der Abstand Δ nicht größer ist als der vorbestimmte Überlappungsschätzwert Δmax. Der Verarbeitungsabschnitt schätzt ab, dass das Werkstück 10a mit den Koordinatenwerten (x2, y2), die in dem Standortverfolgungsdatensatz Trk[i] enthalten sind, und das Werkstück 10a mit den Koordinatenwerten (x1, y1), die in dem Standortverfolgungsdatensatz Trk[i – 1] enthalten sind, identisch sind.
  • Wenn dies so abgeschätzt bzw. beurteilt wird, bricht der Verarbeitungsabschnitt 15 den Verarbeitungsschritt für das Werkstück 10a, das den Werkstückdaten S3a mit den Koordinatenwerten (x2, y2) entspricht, ab, das heißt denjenigen Werkstückdaten S3a, die dem Werkstück 10a des Standortverfolgungsdatensatzes Trk[i] entsprechen. Mit anderen Worten, der Verarbeitungsabschnitt 15 steuert den Werkstückmanager 15c dergestalt, dass der Werkstückmanager 15c keinen Bearbeitungsschritt in Entsprechung zu dem Werkstück 10a des Standortverfolgungsdatensatzes Trk[i] ausführt.
  • Wenn in dem Prozessschritt S14 abgeschätzt wird, dass der Abstand Δ größer ist als der vorbestimmte Überlappungsschätzwert Δmax, veranlasst der Verarbeitungsabschnitt 15, dass der Werkstückmanager 15c so betrieben wird, dass dieser den Arbeitsvorgang für das Werkstück 10a des Standortverfolgungsdatensatzes Trk[i] ausführt (Schritt S16).
  • Nach der Verarbeitung des Prozessschrittes S15 oder des Prozessschrittes S16 führt der Verarbeitungsabschnitt 15 die nachfolgende Verarbeitung aus. Beispielsweise schätzt der Verarbeitungsabschnitt für das Werkstück 10a des Standortverfolgungsdatensatzes Trk[i] ab, ob die Werkstückdaten S3a von sämtlichen Werkstücken 10a bis 10c, die in dem Standortverfolgungsdatensatz Trk[i – 1] enthalten sind, für die vorstehend erläuterte Verarbeitung verwendet wurden (Schritt S17), Wenn in dem Verarbeitungsschritt S17 festgestellt wird, dass nicht sämtliche Werkstückdaten S3a für die Verarbeitung verwendet wurden, führt der Verarbeitungsabschnitt 15 den nachfolgenden Verarbeitungsvorgang aus. Der Verarbeitungsabschnitt wählt die nächsten Werkstückdaten in dem Standortverfolgungsdatensatz Trk[i – 1] aus (Schritt S18), kehrt zurück zu dem Prozessschritt S13 und führt die nachfolgenden Verarbeitungsschritte in der gleichen Weise wie bei der vorstehenden Beschreibung aus.
  • Wenn in dem Prozessschritt S17 festgestellt wird, dass sämtliche Werkstückdaten S3a zur Verarbeitung verwendet wurden, schätzt der Verarbeitungsabschnitt 15 ab, ob sämtliche Werkstückdaten des Standortverfolgungsdatensatzes Trk[i] für die vorstehende Verarbeitung verwendet wurden (Schritt S19). Wenn in dem Verarbeitungsschritt S19 festgestellt wird, dass nicht sämtliche Werkstückdaten für die Verarbeitung verwendet wurden, führt der Verarbeitungsabschnitt 15 den nachfolgenden Verarbeitungsvorgang aus. Der Verarbeitungsabschnitt wählt die nächsten Werkstückdaten in dem Standortverfolgungsdatensatz Trk[i] aus (Schritt S20), kehrt zu dem Prozessschritt S12 zurück und führt die nachfolgenden Verarbeitungsschritte in dergleichen Weise wie nach der vorstehenden Beschreibung aus.
  • Wenn in dem Verarbeitungsschritt S19 festgestellt wird, dass sämtliche Werkstückdaten für die Verarbeitung verwendet wurden, beendet der Verarbeitungsabschnitt 15 den Verarbeitungsvorgang zur Detektion der Werkstückdaten, die in dem Standortverfolgungsdatensatz Trk[i – 1] und in dem Standortverfolgungsdatensatz Trk[i] miteinander überlappen.
  • Der Verarbeitungsabschnitt 15 führt den Detektionsvorgang für die miteinander überlappenden Werkstückdaten, wie vorstehend erläutert, für Standortverfolgungsdaten aus, die sequentiell aus der Datenbank ausgelesen werden. Der Verarbeitungsabschnitt 15 veranlasst, dass der Werkstückmanager 15c eine Verarbeitung ausführt, jedoch mit Ausnahme an den Werkstückdaten, die in dem Prozessschritt S6 gemäß der 3 als miteinander überlappend detektiert wurden, und veranlasst, dass der Roboter 4 den Arbeitsvorgang ausführt.
  • Aufgrund dieser Verarbeitung des Verarbeitungsabschnitts 15, bei der die überlappenden Werkstückdaten auf diese Weise ausgeschlossen werden, führt der Roboter 4 nicht länger den Arbeitsvorgang erneut für das Werkstück 10 aus, an welchem ein Arbeitsvorgang bereits ausgeführt worden ist, so dass ein überflüssiger Betrieb des Roboters 4 vermieden ist.
  • Gemäß dem Bearbeitungssystem 1 des ersten Ausführungsbeispiels, wie vorstehend beschrieben, schließt der Verarbeitungsabschnitt 15 des Roboter-Controllers 5 die überlappenden Werkstückdaten, die in jedem Standortverfolgungsdatensatz enthalten sind, die aus der Datenbank ausgelesen werden, aus, sodass der überflüssige Betrieb des Roboters 4 vermieden werden kann. Außerdem können die miteinander überlappenden Werkstückdaten unabhängig von dem verwendeten Koordinatensystem detektiert werden, wenn die Werkstückdaten S3a von dem optischen Sensor 3 erzeugt werden.
  • Zweites Ausführungsbeispiel
  • Ein Bearbeitungssystem gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung ist in gleicher Weise ausgelegt wie das in der 1 und 2 gezeigte Bearbeitungssystem 1. Hierbei wird eine überflüssige Erläuterung von Teilen bzw. Abschnitten, die in gleicher Weise ausgelegt sind wie diejenigen des Bearbeitungssystems 1 und die für das erste Ausführungsbeispiel beschrieben wurden, weggelassen. Außerdem werden in der nachfolgenden Erläuterung diejenigen Teile, die gleich sind oder entsprechend zu den Teilen, die für das erste Ausführungsbeispiel erläutert worden sind, unter Verwendung derselben Bezugszeichen erläutert.
  • Die 8 ist ein Flussdiagramm, das den Betrieb des Bearbeitungssystems gemäß dem zweiten Ausführungsbeispiel der vorliegenden Erfindung zeigt. Dieses Flussdiagramm verwendet die gleichen Bezeichnungen für die Schritte, welche dieselben Bearbeitungsvorgänge ausführen wie diejenigen in den Schritten, die in der 3 gezeigt sind. Im Schritt S1 erfasst die Kamera 11 des optischen Sensors 3 auf der stromaufwärtigen Förderseite des Förderbands 2, wie vorstehend beschrieben, Bilder der Werkstücke 10, die auf der Band-Förderfläche 2a abgelegt sind.
  • In dem Schritt S2 entnimmt bzw. extrahiert der Bildverarbeitungsabschnitt 12 des optischen Sensors 3 den Bereich von jedem Werkstück 10 aus dem Bild, das mit der Kamera 11 erfasst wurde, um die Werkstückdaten S3a von jedem der Werkstücke 10 zu erzeugen. In dem Schritt S3 übermittelt der vorgenannte und nicht gezeigte Datenübertragungsabschnitt des optischen Sensors 3 die vorgenannten Werkstückdaten S3a in Entsprechung zu einem Triggersignal S3b, das den Zeitpunkt einer Erfassung der Kamera 11 anzeigt.
  • In dem Schritt S4 empfängt der Roboter-Controller 5, genauer gesagt ein nicht dargestellter Empfangsabschnitt des Roboter-Controllers 5, die in dem Prozessschritt S3 übermittelten Werkstückdaten S3a, während der Datenverwaltungsabschnitt 15a veranlasst, dass der Speicherabschnitt 16 die Werkstückdaten S3a speichert. Zu diesem Zeitpunkt werden die Werkstückdaten S3a, die in Entsprechung zu einem Triggersignal S3b gesendet wurden, als ein Standortverfolgungsdatensatz D1 erfasst und gespeichert, so dass auf diese Weise eine Datenbank aufgebaut wird.
  • Im Schritt S25 überwacht der Standortverfolgungsmanager 15c des Roboter-Controllers 5 Ausgangssignale des Förderband-Messgebers 6. Außerdem liest der Datenverwaltungsabschnitt 15a den Standortverfolgungs-Datensatz D1, der das Werkstück 10 enthält, das sich in dem in der 1 gezeigten Werkstück-Detektionsbereich bewegt, aus dem Speicherabschnitt 16 in Entsprechung zu dem Überwachungsergebnis des Standortverfolgungsmanagers 15b aus. Der Werkstückmanager 15c führt den Verarbeitungsvorgang unter Verwendung sämtlicher Werkstückdaten aus, die den Standverfolgungsdatensatz D1 bilden, wie vorstehend erläutert, der durch den Datenverwaltungsabschnitt 15a aus dem Speicherabschnitt 16 ausgelesen wird, und ordnet die Reihenfolge zum Ausführen des Bearbeitungsvorgangs durch den Roboter 4 in Entsprechung zu diesem Verarbeitungsergebnis um.
  • In dem Schritt S26 steuert der Antriebs-Steuerungsabschnitt 17 des Roboter-Controllers 5 den Betrieb des Roboters 4 so, dass dieser die Werkstücke 10 in Entsprechung zu der in dem Schritt S25 umgeordneten Sequenz hält. Das Bearbeitungssystem 1 gemäß dem zweiten Ausführungsbeispiel wird schematisch auf diese Weise betrieben.
  • Als nächstes werden detaillierte Betriebsabläufe dieser Abschnitte erläutert werden. Der optische Sensor 3 erfasst Bilder innerhalb eines konstanten Erfassungsbereichs, beispielsweise Bilder innerhalb des Standortverfolgungsbereichs S von dem Ende auf der stromaufwärtigen Förderseite der Band-Förderfläche 2a oder von dem Bildgebungsursprung 20a in der Nähe dieser stromaufwärtigen Förderseite des Förderbands 2. Genauer gesagt erfasst die Kamera 11 in der 2 ein Bild in dem Standortverfolgungsbereich S der Band-Förderfläche 2a zu deren eigenem Erfassungs-Zeitpunkt (Schritt S1).
  • Der Bildverarbeitungsabschnitt 12 entnimmt die Form eines Werkstücks 10, das in dem Bild innerhalb des Standortverfolgungsbereich S enthalten ist, vergleicht diese Form mit den Form-Daten etc. für jeden Typ, der abgespeichert ist, mithilfe des eigenen Bildverarbeitungsabschnitts 12 und identifiziert den Typ des Werkstücks 10. Außerdem detektiert der Bildverarbeitungsabschnitt 12 die Koordinatenwerte jedes beliebigen Bereichs des Werkstücks 10 anhand von Bildern in dem Standortverfolgungsbereich S und erzeugt die Werkstückdaten S3a des Werkstücks 10 (Schritt S2). Bei diesen Koordinatenwerten handelt es sich um Werte, die durch das Koordinatensystem ausgedrückt werden, das in jedem von der Kamera 11 oder dem optischen Sensor 3 selbst ausgeführten Bearbeitungsschritt verwendet wird. Es sei darauf hingewiesen, dass der optische Sensor 3 Daten einschließlich von Koordinatenwerten erzeugen kann, welche auch die Position des Werkstücks in den Werkstückdaten S3a anzeigen.
  • Der optische Sensor 3 übermittelt die erzeugten Werkstückdaten S3a sequentiell an den Roboter-Controller 5, wie vorstehend erläutert (Schritt S3). Der Datenverwaltungsabschnitt 15a des Roboter-Controllers 5 erfasst die empfangenen Wertstückdaten S3a als die Standortverfolgungsdaten und speichert das Ergebnis in der Datenbank ab (Schritt S4). Dieser Verarbeitungsvorgang wird so, wie anhand des ersten Ausführungsbeispiels und der 4 erläutert, ausgeführt.
  • Wie vorstehend erläutert, fasst der Datenverwaltungsabschnitt 15a, wenn dieser eine Mehrzahl von Werkstückdaten S3a empfängt, die mithilfe des Datenübertragungsabschnitts etc. von dem optischen Sensor 3 für jedes Triggersignal S3b übermittelt werden, diese Werkstückdaten S3a in einem Datensatz zusammen und erzeugt die Standortverfolgungsdaten bzw. den Standortverfolgungsdatensatz D1. Außerdem fügt der Datenverwaltungsabschnitt 15a Daten hinzu, welche die Größe der Bewegung des Förderbands 2 anzeigen, die über den Förderband-Messgeber 6 eingegeben werden, um den vorgenannten Standortverfolgungsdatensatz D1 zu erzeugen und speichert diesen in dem Speicherabschnitt 15 ab, um eine Datenbank aufzubauen.
  • Es sei darauf hingewiesen, dass der in der 4 gezeigte Standortverfolgungsdatensatz Trk[i] Daten zu demjenigen Zeitpunkt repräsentiert, wenn beispielsweise 10 Werkstücke 10 für den Standortverfolgungsbereich S detektiert werden, die bei der [i]-ten Aufforderung durch den optischen Sensor 3 erfasst werden, und aus den Werkstückdaten Wrk[0] bis Wrk[9] besteht.
  • Zu diesem Zeitpunkt der Erzeugung speichert der Datenverwaltungsabschnitt 15b beispielsweise den vorgenannten Standortverfolgungsdatensatz Trk[i], wenn dieser das auf die [i]-te Aufforderung von dem optischen Sensor 3 gesendete Triggersignal S3b empfängt, in einem Abschnitt zum Speichern der Standortverfolgungsdaten Trk[i], der mit diesem Triggersignal S3b verknüpft ist, und zwar in dem Speicherabschnitt 16. Außerdem speichert der Datenverwaltungsabschnitt 15a Signale, die hier von dem Förderband-Messgeber 6 eingegeben werden, das heißt diejenigen Daten, welche die Größe der Bewegung des Förderbands 2 anzeigen, und zwar in dem Speicherabschnitt 16 als die Komponente des Standortverfolgungsdatensatzes Trk[i], wie vorstehend erläutert. Außerdem sichert/speichert der Datenverwaltungsabschnitt 15a die Werkstückdaten Wrk[0] bis Wrk[9], die sequentiell von dem optischen Sensor 3 gesendet werden, in dem Abschnitt des Standortverfolgungsdatensatzes Trk[i], der in dem Speicherabschnitt 16 wie vorstehend erläutert gespeichert ist.
  • Es sei darauf hingewiesen, dass zur Erleichterung des Verständnisses in der 4 zwei Werkstücke 10 in dem [i]-ten Standortverfolgungsbereich S gezeigt sind, d. h. dass eine Darstellung von sämtlichen Werkstücken 10, die innerhalb des [i]-ten Standortverfolgungsbereichs abgelegt sind, unterblieben ist. Außerdem sind die vorgenannten Indices [i – 1], [i], [i + 1] etc., welche die Reihenfolge der Erfassung durch den optischen Sensor 3 anzeigen, Standortverfolgungszahlen bzw. -indices, die dem Standortverfolgungsdatensatz D1 zugeordnet sind. Die Standortverfolgungsdaten S3a, die sequentiell von dem optischen Sensor 3 an den Roboter-Controller 5 übermittelt werden, bestehen beispielsweise aus den in der 4 gezeigten Werkstückdaten Wrk[0] bis Wrk[9].
  • Die Werkstückdaten Wrk[0] bis Wrk[9] weisen X-Koordinatendaten und Y-Koordinatendaten des von dem optischen Sensor 3 für dessen eigene Verarbeitung verwendeten Koordinatensystems sowie C-Koordinatendaten auf, welche eine Drehung in einer X-Y-Ebene darstellen. Außerdem umfassen die Werkstückdaten Wrk[0] bis Wrk[9] aufgrund des Hinzufügens einer Mehrzahl von zusätzlichen Daten beispielsweise zusätzliche Daten (1) bis (3). Die zusätzlichen Daten (1) bis (3) sind Daten, die Zustände etc. angeben, die mit verschiedenen Verarbeitungsvorgängen im Zusammenhang stehen und die beispielsweise den Typ etc. anzeigen, wie dieser durch den optischen Sensor 3, wie vorstehend erläutert, aufgelöst wird. Diese zusätzlichen Daten (1) bis (3) werden in dem optischen Sensor 3 je nach den Wünschen des Benutzers eingestellt.
  • Der Bildverarbeitungsabschnitt 12 des optischen Sensors 3 führt für jedes durch die Kamera 11 erfasste Bild eine Verarbeitung aus, wie vorstehend erläutert. Der Roboter-Controller 5 verwendet die Datenbank, die in der Speichereinheit 16 gespeichert ist, um den Betrieb des Roboters 4 zu steuern, und führt den Bearbeitungsvorgang des zu der Position des Roboters 5 geförderten Werkstücks 10 aus. Der Bearbeitungsvorgang des Roboters 4 wird an demjenigen Werkstück-Detektionsbereich ausgeführt, der zwischen dem Werkstück-Detektionsbereich-Startpunkt 20b und dem Werkstück-Detektionsbereich-Endpunkt 20c vorgesehen ist, die in der 1 gezeigt sind.
  • Der Standortverfolgungsmanager 15b des Roboter-Controllers 5 überwacht die Daten, welche die Größe der Bewegung anzeigen und in jedem Standortverfolgungsdatensatz D1 enthalten sind, und detektiert die Position jedes Werkstücks 10 während dessen Transport. Genauer gesagt extrahiert der Standortverfolgungsmanager 15b die Daten, welche die Größe der Bewegung anzeigen, aus jedem Standortverfolgungsdatensatz D1, der in der Datenbank abgespeichert ist. Außerdem verwendet der Standortverfolgungsmanager 15b die Daten, welche die Größe der Bewegung anzeigen und in der vorstehend beschriebenen Weise extrahiert wurden, um zu erkennen, zu welchem Standortverfolgungsdatensatz D1 der Standortverfolgungsbereich S während einer Bewegung in dem Werkstück-Detektionsbereich dazugehört. Der Standortverfolgungsmanager 15b liest den vorgenannten erkannten Standortverfolgungsdatensatz D1 unter Verwendung des Datenverwaltungsabschnitts 15a aus dem Speicherabschnitt 16 aus.
  • Der Werkstückmanager 15c empfängt als Eingabe den aus dem Speicherabschnitt 16 ausgelesenen Standortverfolgungsdatensatz D1, wie vorstehend erläutert, d. h. denjenigen Standortverfolgungsdatensatz D1, der von dem Standortverfolgungsmanager 15b erkannt wurde. Der Standortverfolgungsmanager 15c wählt die zu verarbeitenden Daten aus einer Mehrzahl von Werkstückdaten aus, die in dem Eingabe-Standortverfolgungsdatensatz D1 enthalten sind. Mit anderen Worten wählt der Werkstückmanager die Daten, die von dem Roboter 4 gehalten werden sollen, aus einer Mehrzahl von Werkstücken 10 aus, die den Werkstück-Detektionsbereich erreichen.
  • Die 9 ist eine erläuternde Ansicht, die den Betrieb des Bearbeitungssystems gemäß dem zweiten Ausführungsbeispiel zeigt. Diese Figur stellt einen Zustand B dar, in welchem die Sequenz der in der Datenbank gespeicherten Werkstückdaten und die Werkstücke 10, die auf der Band-Förderfläche 2a abgelegt sind, miteinander verknüpft sind, sowie einen Zustand C, in welchem die Sequenz, die von dem Roboter 4 gehalten bzw. ausgeführt werden soll, und die Werkstücke 10, die auf der Band-Förderfläche 2a abgelegt sind, miteinander verknüpft sind. Es sei darauf hingewiesen, dass der vorgenannte Zustand B ein Beispiel für die Sequenz darstellt, die durch sequentielles Speichern der von dem optischen Sensor 3 übermittelten Werkstückdaten S3a in der Datenbank erhalten wird, und dass dieser nicht auf die dargestellte Sequenz beschränkt ist.
  • Der Werkstückmanager 15c ordnet die Sequenz um, die veranlasst, dass der Roboter 4 die Werkstücke 10 hält, und zwar so wie in dem Zustand C in dem Prozessschritt S25 gemäß der 8. Genauer gesagt führt der Werkstückmanager in einem Standortverfolgungsbereich S eine Umordnung der Werkstückdaten, die den Werkstücken 10 entsprechen, so aus, dass der Roboter 4 diese Daten in der Reihenfolge von dem Werkstück 10 auf der stromabwärtigen Förderseite in einem Standortverfolgungsbereich S hält.
  • Die 10 ist eine erläuternde Ansicht, die eine durch den Roboter-Controller des Bearbeitungssystems gemäß dem zweiten Ausführungsbeispiel ausgeführte Verarbeitung zeigt. Bei dem dargestellten Buchstaben „O” handelt es sich um irgendeinen Referenzpunkt. Beispielsweise ist ein Vektor Cν ein Einheitsvektor, der beispielsweise durch einen Benutzer festgelegt wird und dieselbe Richtung wie der Fördervektor A anzeigt, der den Förderbetrieb des Förderbands 2 repräsentiert. Der Referenzpunkt O wird beispielsweise auf der stromaufwärtigen Förderseite des Standortverfolgungsbereichs S eingestellt, der sich in den Werkstück-Detektionsbereich bewegt. Der Referenzpunkt O, der beispielhaft in der 10 dargestellt ist, wird als die Mittenposition in einer Breitenrichtung der Band-Förderfläche 2a bereitgestellt.
  • Wenn die Koordinaten der Position P des Werkstücks 10 (Px, Py) sind, und wenn die Koordinaten des Referenzpunkts O (Ox, Oy) sind, so wird beispielsweise ein Vektor Pn von dem Referenzpunkt O zu dem Werkstück 10 auf der Oberfläche der Band-Förderfläche 2a zu (Px-Ox, Py-Oy). Wenn ein von dem Vektor Pn und dem Vektor Cν eingeschlossener Winkel θ beträgt, wird der Abbildungsvektor PnC des Werkstücks 10 wie in der nachfolgenden Gleichung (2) bezeichnet. |P →n c| = |P →n|cos(θ) (2)
  • Hierbei wird das Skalarprodukt des Vektor Pn mit dem Vektor Cν durch die nachfolgende Gleichung (3) angegeben. |P →n|·|C →ν|cos(θ) = P →n·C →ν (3)
  • Der Vektor Cν ist der Einheitsvektor, wie vorstehend erläutert, deshalb beträgt die skalare Größe bzw. Länge „l”. Aus diesem Grund wird das vorgenannte Skalarprodukt zu dem Wert gemäß der nachfolgenden Gleichung (4). |P →n|cos(θ) = P →n·C →ν (4)
  • Aus den vorstehend angegebenen Gleichungen (2) und (4) wird die skalare Größe bzw. Länge des Abbildungsvektors PnC durch die nachfolgende Gleichung (5) angegeben. |P →n c| = P →n·C →ν (5)
  • Auf diese Weise kann man die skalare Größe bzw. Länge des Abbildungsvektors PnC des Werkstücks 10 durch das Skalarprodukt des Vektors P mit dem Vektor Cν auffinden. Beispielsweise findet der Werkstückmanager 15c des Verarbeitungsabschnitts 15 die skalare Größe bzw. Länge des Abbildungsvektors Pn für sämtliche Werkstückdaten, die in einem Standortverfolgungsdatensatz D1 enthalten sind, auf diese Weise auf.
  • Selbst für den Fall, dass das Koordinatensystem der von dem optischen Sensor 3 gesendeten Werkstückdaten S3a nicht mit der Förderrichtung des Förderbands 2 übereinstimmt, kann dies zur Steuerung des Betriebs des Roboters 4 verwendet werden, weil die Position jedes Werkstücks 10 entsprechend der skalaren Größe bzw. Länge des Abbildungsvektors PnC dargestellt wird. Egal wie der Koordinatenursprung des von dem optischen Sensor 3 erfassten Bilds angeordnet ist, ist es außerdem möglich, diesen zur Steuerung des Betriebs des Roboters 4 heranzuziehen.
  • Wenn beispielsweise die Anzahl der Werkstückdaten, die in einem Standortverfolgungsdatensatz D1 enthalten sind, 10 beträgt, sind die skalaren Größen bzw. Längen des Abbildungsvektor Pn sämtliche Werkstückdaten, die wie vorstehend erläutert aufgefunden werden, so wie in der nachfolgenden Datenkette (6) angeordnet. {|P →1 c|, |P →2 c|, ...|P →10 c|} (6)
  • Wenn der Ursprung O auf der stromaufwärtigen Förderseite, wie vorstehend erläutert, als die skalare Größe bzw. Länge des Abbildungsvektors PnC eingestellt wird, so nimmt das Werkstück 10, das sich auf der stromabwärtigen Förderseite befindet, einen großen Wert an. Der Verarbeitungsabschnitt 15 ordnet die skalaren Größen bzw. Längen unter Verwendung beispielsweise eines Auswahlsortierverfahrens um. Beispielsweise vergleicht der Werkstückmanager 15c des Verarbeitungsabschnitts 15 die skalaren Größen in der Datenkette (6) und ordnet diese in eine Reihenfolge der Daten mit dem größten Wert um. Der Werkstückmanager 15c wählt die Werkstückdaten sequentiell in Entsprechung zu den skalaren Größen aus, die in der Datenkette (6) angeordnet sind. Der Werkstückmanager 15c wählt die Werkstückdaten in der Reihenfolge ausgehend von den Werkstückdaten mit der skalaren Größe des größten Abbildungsvektors PnC als die Werkstückdaten aus, die zur Steuerung des Betriebs des Roboters 4 auf diese Weise verwendet werden.
  • In dem Prozessschritt S26 der 8 verwendet der Antriebs-Steuerungsabschnitt 17 die Werkstückdaten, die sequentiell von dem Werkstückmanager 15c ausgewählt werden, um den Betrieb des Roboters 4 zu steuern, und veranlasst, dass der Roboter den Bearbeitungsvorgang in der Reihenfolge beispielsweise ausgehend von dem Werkstück 10, das sich auf der stromabwärtigen Förderseite befindet, ausführt, wie in dem Zustand C gemäß der 9 angedeutet.
  • Wie vorstehend erläutert, kann die Sequenz zum Halten der Werkstücke 10 durch den Roboter 4 dadurch verändert werden, dass der Werkstückmanager 15c das Innere der Datenkette(-serie) (6) in Entsprechung zu der skalaren Größe des Abbildungsvektors PnC umordnet und die Sequenz zur Verarbeitung der Werkstückdaten in Entsprechung zu dieser umgeordneten Datenkette(-serie) (6) ändert.
  • Gemäß dem Bearbeitungssystem des vorstehend beschriebenen zweiten Ausführungsbeispiels ordnet der Verarbeitungsabschnitt 15 die Sequenz der Werkstückdaten um, die zur Steuerung des Betriebs des Roboters 4 verwendet werden, so dass der Betrieb für diejenigen Werkstücke 10 ausgeführt werden kann, die zu bzw. von dem Förderband 2 gefördert werden und sich in dem Werkstück-Detektionsbereich bewegen, und zwar mit hoher Effizienz. Außerdem wird der Arbeitsvorgang an dem Werkstück 10, das sich auf der stromabwärtigen Förderseite befindet, durch Umordnen der Sequenz zum Ausführen des Arbeitsvorgangs ausgeführt, so dass ein irrtümlicher Arbeitsvorgang an dem Werkstück 10 während des Fördervorgangs vermieden werden kann. Außerdem kann ein überflüssiger Arbeitsvorgang des Roboters 4 vermieden werden.
  • Drittes Ausführungsbeispiel
  • Ein Bearbeitungssystem gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung ist in gleicher Weise wie das anhand des ersten Ausführungsbeispiels und des zweiten Ausführungsbeispiels, wie vorstehend erläutert, erläuterten Bearbeitungssystems ausgelegt. Eine erneute Erklärung wird weggelassen, was die Auslegung derselben in entsprechender Weise zu den anhand des ersten und zweiten Ausführungsbeispiels beschriebenen Systemen anbelangt. Außerdem wird das Bearbeitungssystem gemäß dem dritten Ausführungsbeispiel im Prinzip in gleicher Weise betrieben wie das System, das anhand des zweiten Ausführungsbeispiels beschrieben wurde. Hierbei wird eine wiederholende Erläuterung für jeglichen Betriebsablauf desselben weggelassen, der so beschaffen ist wie das anhand des zweiten Ausführungsbeispiels erläuterte System. Der Betriebsablauf, der kennzeichnend für das Bearbeitungssystem gemäß dem dritten Ausführungsbeispiel ist, wird erläutert.
  • Die 11 ist eine erläuternde Ansicht, die den Betrieb des Bearbeitungssystems gemäß dem dritten Ausführungsbeispiel der vorliegenden Erfindung zeigt. Dieses Diagramm drückt den Zustand B aus, in welchem die Sequenz von Werkstückdaten, die in der Datenbank gespeichert sind, und die auf der Band-Förderfläche 2a abgelegten Werkstücke 10 miteinander verknüpft sind, sowie einen Zustand D, in welchem die Sequenz von Daten, die von dem Roboter 4 gehalten werden sollen, und von Werkstücken 10, die auf der Band-Förderfläche 2a abgelegt sind, miteinander verknüpft sind. Es sei darauf hingewiesen, dass der vorgenannte Zustand B ein Beispiel für die Sequenz darstellt, die man durch sequentielles Speichern der von dem optischen Sensor 3 übermittelten Werkstückdaten in der Datenbank in der gleichen Weise erhält wie für den Zustand B, der in der 11 gezeigt ist, und dieser ist nicht auf die dargestellte Sequenz beschränkt.
  • Der Werkstückmanager 15c des Bearbeitungssystems 1 gemäß dem dritten Ausführungsbeispiel ordnet die Sequenz zum Veranlassen, dass der Roboter 4 die Werkstücke 10 so wie in dem Zustand D halt, in dem Prozessschritt S25 gemäß der 8 um, wie für das zweite Ausführungsbeispiel erläutert. Genauer gesagt wird in einem Standortverfolgungsbereich S eine Umordnung der Werkstückdaten, die den Werkstücken 10 entsprechen, so ausgeführt, dass der Roboter 4 die Daten in einer Reihenfolge ausgehend von dem Werkstück 10 auf der stromabwärtigen Förderseite hält. Beispielsweise wird das Werkstück 10, das auf der am meisten stromabwärtigen Förderseite abgesetzt ist, durch die Verarbeitung aufgefunden, die vorstehend für das zweite Ausführungsbeispiel erläutert wurde.
  • Als Nächstes wird das Werkstück 10, das an der am nächsten zu diesem Werkstück 10 befindlichen Position angeordnet ist, durch Vergleichen beispielsweise von Koordinatenwerten der Werkstückdaten detektiert. Auf diese Weise werden Werkstücke 10, die in der Nähe angeordnet sind, sequentiell detektiert und werden die Werkstückdaten entsprechend der detektierten Sequenz umgeordnet. Wie vorstehend beschrieben, führt der Roboter 4 aufgrund der Tatsache, dass der Werkstückmanager 15c die Werkstückdaten umordnet und diese sequentiell an den Antriebs-Steuerungsabschnitt 17 ausgibt, an den Werkstücken 10 einen Arbeitsvorgang in der Sequenz aus, die für den Zustand D gemäß der 11 gezeigt ist.
  • Gemäß dem vorstehend beschriebenen Bearbeitungssystem des dritten Ausführungsbeispiels ordnet der Verarbeitungsabschnitt 15 des Roboter-Kontrollers 5 die Sequenz der Werkstückdaten, die zur Steuerung des Betriebs des Roboters 4 verwendet werden, um, so dass ein Arbeitsvorgang an den Werkstücken 10 ausgeführt werden kann, die von dem Förderband 2 gefördert werden und sich in dem Werkstück-Detektionsbereich bewegen, und zwar mit hoher Effizienz. Außerdem wird die Sequenz zum Ausführen des Arbeitsvorgangs umgeordnet, so dass diese den Arbeitsvorgang bei demjenigen Werkstück 10 beginnt, das sich auf der stromabwärtigen Förderseite befindet, und so dass der Arbeitsvorgang sequentiell an den benachbarten Werkstücken 10 ausgeführt wird, so dass es möglich ist, unnötige bzw. versehentliche Arbeitsvorgänge an einem Werkstück 10 während der Förderung zu vermeiden. Außerdem kann ein überflüssiger Betrieb des Roboters 4 vermieden werden.
  • Gewerbliche Anwendbarkeit
  • Wie vorstehend beschrieben, sind das Bearbeitungssystem, die Steuerungseinrichtung und das Steuerungsverfahren gemäß der vorliegenden Erfindung zur Auslegung eines Systems etc. geeignet, das mit Hilfe eines Roboters etc. eine vorbestimmte Bearbeitung an Werkstücken ausführt, die von einem Förderband gefördert werden.
  • Zusammenfassung
  • Eine Bearbeitungsvorrichtung, die eine Band-Fördereinrichtung (2) zum Fördern eines Werkstücks (10), einen Roboter (4) zum Ausführen eines vorbestimmten Vorgangs für das Werkstück (10), einen optischen Sensor (3) zum Fotografieren des gerade geförderten Werkstücks (10) zum Erzeugen von Werkstückdaten, die jedes Werkstück (10) in dem fotografierten Bild anzeigen, sowie einen Roboter-Controller (5) aufweist, um die Werkstückdaten für jedes Bild zu erfassen, um so Standortverfolgungsdaten zu erzeugen, und um die Standortverfolgungsdaten in einer Datenbank zu speichern, um so den Roboter (4) mittels der Datenbank so zu steuern, dass ein vorbestimmter Vorgang an dem Werkstück (10) ausgeführt wird, dass zu der Position des Roboters (4) übergeben wird. Der Roboter-Controller (5) führt einen vorbestimmten Berechnungsvorgang an den Werkstückdaten aus, die aus der Datenbank ausgelesen werden, detektiert die überlappenden Werkstückdaten und beendet die Steuerung des Betriebs des Roboters (4) auf Grundlage der überlappenden Werkstückdaten. Der Roboter-Controller (5) ordnet die Sequenzen um, mittels denen der Roboter (4) den Vorgang an jedem Werkstück (10) ausführt.
  • Bezugszeichenliste
  • 1
    Bearbeitungssystem
    2
    Förderband
    3
    optischer Sensor
    4
    Roboter
    4a
    Halteabschnitt
    4b
    Armabschnitt
    5
    Roboter-Kontroller
    10, 10a, 10b, 10c, 10d
    Werkstücke
    11
    Kamera
    12
    Bildverarbeitungsabschnitt
    13
    Eingabeabschnitt
    14
    Display-Abschnitt
    15
    Verarbeitungsabschnitt
    15a
    Datenverwaltungsabschnitt
    15b
    Standortverfolgungsmanager
    15c
    Werkstückmanager
    16
    Speicherabschnitt
    17
    Antriebs-Steuerungsabschnitt
    18
    Haltemotor; und
    19
    Armmotor
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2007-15055 A [0002]

Claims (15)

  1. Bearbeitungssystem, umfassend: eine Fördereinrichtung zum Fördern eines Werkstücks; einen Roboter, der einen vorbestimmten Arbeitsvorgang an dem Werkstück ausführt; einen optischen Sensor, der ein Bild des gerade geförderten Werkstücks erfasst und Werkstückdaten erzeugt, die jedes einzelne Werkstück in dem erfassten Bild anzeigen bzw. abbilden, und eine Steuerungseinrichtung zum Erfassen der Werkstückdaten für jedes der Bilder, um so Standortverfolgungsdaten zu erzeugen, die Standortverfolgungsdaten in einer Datenbank zu sammeln und die Datenbank dazu zu verwenden, um den Roboter so zu steuern, dass dieser den vorbestimmten Arbeitsvorgang an einem geförderten Werkstück an einer Position des Roboters ausführt, wobei die Steuerungseinrichtung die in der Datenbank angesammelten Standortverfolgungsdaten verarbeitet, einen Ist-Zustand von jedem der Werkstücke, das von der Fördereinrichtung gefördert wird, erkennt und veranlasst, dass der Roboter in Übereinstimmung mit einem Ist-Förderzustand von jedem der Werkstücke betrieben wird.
  2. Bearbeitungssystem nach Anspruch 1, wobei die Steuerungseinrichtung die in der Datenbank gespeicherten Werkstückdaten ausliest, um einen vorbestimmten Bearbeitungsvorgang auszuführen, und eine Sequenz umordnet, mit welcher der Roboter einen Arbeitsvorgang an einer Mehrzahl von Werkstücken ausführt.
  3. Bearbeitungssystem nach Anspruch 2, wobei die Steuerungseinrichtung die Steuerung so ausführt, dass diese den Arbeitsvorgang beginnend mit dem Werkstück beginnt, das auf einer stromabwärtigen Förderseite der Fördereinrichtung positioniert ist.
  4. Bearbeitungssystem nach Anspruch 3, wobei die Steuerungseinrichtung umfasst: einen Speicherabschnitt, der als die Datenbank Standortverfolgungsdaten speichert, bei denen es sich um die Werkstückdaten handelt und die von dem optischen Sensor übermittelt werden und die in gleicher Weise für jedes Bild erfasst werden, das von dem optischen Sensor erfasst wird, einen Verarbeitungsabschnitt, der eine skalare Größe eines Abbildungsvektors jedes Werkstücks aus sämtlichen Werkstückdaten, die in den Standortverfolgungsdaten enthalten sind, auffindet und der eine Arbeitssequenz, die von dem Roboter auszuführen ist, auf Grundlage der skalaren Größe des Abbildungsvektors von jedem der Werkstücke umordnet, und einen Antriebs-Steuerungsabschnitt, der den Roboter so steuert, dass dieser den Arbeitsvorgang an jedem der Werkstücke in Entsprechung zu der Sequenz ausführt, die durch den Verarbeitungsabschnitt umgeordnet wurde.
  5. Bearbeitungssystem nach Anspruch 4, wobei der Verarbeitungsabschnitt einen Verarbeitungsvorgang ausführt, um ein Skalarprodukt eines Vektors (P) mit einem Vektor (Cν) aufzufinden, was in der skalaren Größe des Abbildungsvektors für jedes der Werkstücke resultiert, wobei der Vektor (P) jeweils als ein Vektor ausgehend von einem beliebigen Referenzpunkt zu dem jeweiligen Werkstück definiert ist und wobei der Vektor (Cν) als ein Referenzvektor definiert ist, der die Förderrichtung der Fördereinrichtung von diesem beliebigen Referenzpunkt zu dem Vektor (Cν) anzeigt.
  6. Bearbeitungssystem nach Anspruch 1, wobei die Steuerungseinrichtung die Verarbeitung für die Werkstückdaten für sämtliche Standortverfolgungsdaten in vorbestimmter Weise ausführt, die aus der Datenbank ausgelesen werden, um die überlappenden Werkstückdaten zu detektieren, und die Steuerung des Betriebs des Roboters auf der Grundlage der überlappenden Werkstückdaten abbricht.
  7. Bearbeitungssystem nach Anspruch 6, wobei die Steuerungseinrichtung umfasst: einen Speicherabschnitt, welcher sämtliche Standortverfolgungsdaten, die für jedes der Bilder erzeugt werden, als die Datenbank speichert, einen Verarbeitungsabschnitt, der einen Abstand zwischen Werkstücken aus den Werkstückdaten, die in den Standortverfolgungsdaten enthalten sind, auffindet und auf der Grundlage des Abstandes zwischen den Werkstücken abschätzt, ob die Werkstückdaten überlappen, und einen Antriebs-Steuerungsabschnitt, welcher den Roboter so steuert, dass dieser einen Arbeitsvorgang für jedes der Werkstücke in Entsprechung zu dem Abschätzergebnis des Verarbeitungsabschnittes ausführt.
  8. Bearbeitungssystem nach Anspruch 7, wobei dann, wenn der Abstand zwischen Werkstücken, der aus den Werkstückdaten bestimmt wurde, kleiner ist als ein vorbestimmter Wert, der Verarbeitungsabschnitt abschätzt bzw. bestimmt, dass die Werkstückdaten, die den Werkstücken mit dem Abstand entsprechen, nicht miteinander überlappen.
  9. Steuerungseinrichtung, umfassend: eine Speichereinrichtung; eine Verarbeitungseinrichtung, um eine Mehrzahl von Werkstückdaten zu erfassen, die von einem optischen Sensor zur Erfassung von Bildern einer Mehrzahl von Werkstücken, die gerade von einer Fördereinrichtung gefördert werden, übermittelt werden und die für jedes von dem optischen Sensor erfasste Bild den Werkstücken entsprechen, um Standortverfolgungsdaten zu erzeugen, um die Speichereinrichtung dazu zu veranlassen, sämtliche Standortverfolgungsdaten für jedes der Bilder zu speichern, sämtliche Standortverfolgungsdaten aus der Speichereinrichtung in Entsprechung zu dem Förder-Betriebszustand der Fördereinrichtung auszulesen, einen vorbestimmten Verarbeitungsvorgang an sämtlichen Werkstückdaten, die den jeweiligen Standortverfolgungsdaten enthalten sind, auszuführen und einen Ist-Zustand von jedem der Werkstücke, die gerade von der Fördereinrichtung gefördert werden, zu erkennen; sowie eine Antriebs-Steuerungseinrichtung um zu bewirken, dass der Roboter in Entsprechung zu dem Ist-Förderzustand von jedem der Werkstücke in Übereinstimmung mit dem Verarbeitungsergebnis der Verarbeitungseinrichtung betrieben wird, so dass der Roboter einen Arbeitsvorgang an jedem der Werkstücke ausführt.
  10. Steuerungseinrichtung nach Anspruch 9, wobei die Verarbeitungseinrichtung sämtliche Werkstückdaten so verarbeitet, dass überlappende Werkstückdaten, die in einer Mehrzahl von Standortverfolgungsdaten enthalten sind, detektiert werden, und wobei die Antriebs-Steuerungseinrichtung mit einer Steuerung des Roboters für die überlappenden Werkstückdaten, die durch die Verarbeitung detektiert werden, abbricht bzw. beendet, so dass dieser einen Arbeitsvorgang an jedem Werkstück ausführt, das den jeweiligen Werkstückdaten entspricht, die nicht überlappen.
  11. Steuerungseinrichtung nach Anspruch 9, wobei die Verarbeitungseinrichtung sämtliche Werkstückdaten so verarbeitet, um eine Sequenz zum Ausführen eines Arbeitsvorgangs an jedem Werkstück aufzufinden, das sämtlichen Daten der gerade von der Fördereinrichtung geförderten Werkstücke entspricht, und die Antriebs-Steuerungseinrichtung den Roboter so steuert, dass dieser den Arbeitsvorgang an jedem der Werkstücke in Entsprechung zu der Sequenz ausführt, die durch die Verarbeitungseinrichtung umgeordnet wurde.
  12. Steuerungsverfahren, umfassend: einen ersten Schritt, bei dem ein optischer Sensor Bilder einer Mehrzahl von Werkstücken, die gerade von einer Fördereinrichtung gefordert werden, erfasst und bei dem für jedes Bild eine Mehrzahl von Werkstückdaten erfasst werden, die den jeweiligen Werkstücken entsprechen, um Standortverfolgungsdaten zu erzeugen; einen zweiten Schritt zum Speichern sämtlicher Standortverfolgungsdaten für jedes der Bilder in einer Datenbank; einen dritten Schritt, bei dem eine vorbestimmte Verarbeitung an sämtlichen Werkstückdaten, die in jeweiligen Standortverfolgungsdaten der Datenbank enthalten sind, in Entsprechung zu dem Förder-Betriebszustand der Fördereinrichtung ausgeführt wird, um so einen Ist-Zustand von jedem der Werkstücke, die gerade durch die Fördereinrichtung gefördert werden, zu erkennen; und einen vierten Schritt, bei dem veranlasst wird, dass der Roboter in Entsprechung zu dem Ist-Förderzustand von jedem der Werkstücke betrieben wird, so dass dieser einen Arbeitsvorgang an jedem der Werkstücke ausführt.
  13. Steuerungsverfahren nach Anspruch 12, wobei in dem dritten Schritt der Verarbeitungsvorgang ausgeführt wird, um überlappende Werkstückdaten zu detektieren, die in der Mehrzahl von Standortverfolgungsdaten enthalten sind, und in dem vierten Schritt die detektierten überlappenden Werkstückdaten gelöscht werden und der Roboters gesteuert wird, so dass der Arbeitsvorgang an jedem Werkstück in Entsprechung zu den Werkstückdaten ausgeführt wird, die nicht miteinander überlappen.
  14. Steuerungsverfahren nach Anspruch 12, wobei in dem dritten Schritt die Verarbeitung so ausgeführt wird, dass eine Sequenz zum Ausführen eines Arbeitsvorgangs für die gerade von der Fördereinrichtung geforderten Werkstücke umgeordnet wird, und in dem vierten Schritt der Roboter so gesteuert wird, dass dieser einen Arbeitsvorgang an jedem der Werkstücke in Entsprechung zu der umgeordneten Sequenz ausführt.
  15. Programm, das bewirkt, dass ein Computer die folgenden Routinen ausführt: eine erste Routine, bei der ein optischer Sensor Bilder eine Mehrzahl von Werkstücken, die gerade von einer Fördereinrichtung gefördert werden, erfasst und von dem optischen Sensor Werkstückdaten, die von diesem optischen Sensor erzeugt werden, eingibt, eine zweite Routine, bei der die eingegebenen Werkstückdaten für jedes Bild, das von dem optischen Sensor erfasst wird, erfasst werden, um Standortverfolgungsdaten zu erzeugen, und bei der diese in einer Datenbank gespeichert werden, eine dritte Routine, bei der die Standortverfolgungsdaten aus der Datenbank in Entsprechung zu dem Förder-Betriebszustand der Fördereinrichtung ausgelesen werden, eine vorbestimmte Verarbeitung an sämtlichen Werkstückdaten, die in den ausgelesenen Standortverfolgungsdaten enthalten sind, ausgeführt wird, um so einen Ist-Zustand für jedes der gerade von der Fördereinrichtung geförderten Werkstücke zu erkennen, und eine vierte Routine, bei der bewirkt wird, dass der Roboter in Entsprechung zu dem Ist-Förderzustand von jedem der Werkstück in Entsprechung zu dem Ergebnis des Verarbeitungsschrittes gesteuert wird und bewirkt wird, dass der Roboter einen Arbeitsvorgang an jedem der Werkstücke ausführt.
DE112009001414T 2008-06-05 2009-06-03 Bearbeitungssystem, Steuerungseinrichtung, Steuerungsverfahren und Programm Ceased DE112009001414T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2008148468A JP5198155B2 (ja) 2008-06-05 2008-06-05 ハンドリング装置、ワークハンドリング方法および信号処理装置
JP2008-148468 2008-06-05
JP2008158038A JP5198161B2 (ja) 2008-06-17 2008-06-17 ハンドリング装置およびワークハンドリング方法
JP2008-158038 2008-06-17
PCT/JP2009/060172 WO2009148089A1 (ja) 2008-06-05 2009-06-03 ハンドリング装置、制御装置、制御方法およびプログラム

Publications (1)

Publication Number Publication Date
DE112009001414T5 true DE112009001414T5 (de) 2011-04-21

Family

ID=41398162

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009001414T Ceased DE112009001414T5 (de) 2008-06-05 2009-06-03 Bearbeitungssystem, Steuerungseinrichtung, Steuerungsverfahren und Programm

Country Status (4)

Country Link
US (1) US8805585B2 (de)
DE (1) DE112009001414T5 (de)
GB (2) GB2471819B (de)
WO (1) WO2009148089A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014114272B4 (de) 2013-10-04 2019-03-07 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
US10625415B2 (en) 2017-06-26 2020-04-21 Fanuc Corporation Robot system
US10692018B2 (en) 2016-09-27 2020-06-23 Fanuc Corporation Machine learning device and machine learning method for learning optimal object grasp route
DE102018212531B4 (de) * 2017-08-03 2020-09-10 Fanuc Corporation Artikeltransfervorrichtung
DE102017008832B4 (de) * 2016-09-28 2020-10-01 Fanuc Corporation Födervorrichtung zum Herausnehmen von Objekten nacheinander auf einem optimalen Weg
US10857673B2 (en) 2016-10-28 2020-12-08 Fanuc Corporation Device, method, program and recording medium, for simulation of article arraying operation performed by robot
DE102020113278A1 (de) 2020-05-15 2021-11-18 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zur Steuerung des Betriebs eines Industrieroboters
DE102018002423B4 (de) 2017-03-31 2022-02-03 Fanuc Corporation Robotersteuerung, Vorrichtung für maschinelles Lernen und Verfahren für maschinelles Lernen

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5803155B2 (ja) * 2011-03-04 2015-11-04 セイコーエプソン株式会社 ロボット位置検出装置及びロボットシステム
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
JP5561214B2 (ja) * 2011-03-15 2014-07-30 オムロン株式会社 画像処理装置および画像処理プログラム
JP5370398B2 (ja) * 2011-03-15 2013-12-18 オムロン株式会社 画像処理装置および画像処理プログラム
JP5464176B2 (ja) * 2011-06-20 2014-04-09 株式会社安川電機 ピッキングシステム
JP5830644B2 (ja) * 2011-12-06 2015-12-09 パナソニックIpマネジメント株式会社 下受けピン配置判定装置および下受けピン配置判定方法
US8989904B2 (en) * 2012-02-27 2015-03-24 Fanuc Robotics America Corporation Robotic process logger
US20130293388A1 (en) * 2012-04-10 2013-11-07 Daryl Ingalsbe Cellular tank monitoring technology
ITCN20120009A1 (it) * 2012-09-07 2014-03-08 Elcat S R L Modulo di rotazione variabile da 0° a 360° di generi alimentari da nastri trasportatori
JP2014055037A (ja) * 2012-09-11 2014-03-27 International Business Maschines Corporation 積載操作方法、システム及びコンピュータ・プログラム。
US20160024169A1 (en) 2013-03-14 2016-01-28 Indiana University Research And Technology Corporation Insulin-incretin conjugates
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
JP6657230B2 (ja) 2014-09-24 2020-03-04 インディアナ ユニヴァーシティ リサーチ アンド テクノロジー コーポレイション インクレチン−インスリンコンジュゲート
WO2017033357A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム
JP5892531B1 (ja) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 リンク列マッピング装置、リンク列マッピング方法、及びプログラム
CN105775726B (zh) * 2016-04-13 2017-12-22 英华达(南京)科技有限公司 拾取和放置装置及其应用方法
JP6527108B2 (ja) * 2016-05-19 2019-06-05 ファナック株式会社 物品搬送装置
WO2017198306A1 (en) * 2016-05-20 2017-11-23 Abb Schweiz Ag Improved industrial object handling robot
US9440799B1 (en) * 2016-06-01 2016-09-13 Finetek Co., Ltd. Conveying apparatus
JP6737018B2 (ja) * 2016-07-08 2020-08-05 オムロン株式会社 光学計測装置
JP6692247B2 (ja) * 2016-08-04 2020-05-13 株式会社東芝 物品保持装置および物品保持方法
JP2018024044A (ja) * 2016-08-09 2018-02-15 オムロン株式会社 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
KR101920395B1 (ko) * 2017-01-23 2018-11-20 주식회사 가치소프트 자동 물품 싱귤레이터 및 그 방법
JP6610609B2 (ja) * 2017-04-27 2019-11-27 トヨタ自動車株式会社 音声対話ロボットおよび音声対話システム
EP3624828A4 (de) 2017-05-18 2021-03-03 Merck Sharp & Dohme Corp. Pharmazeutische formulierung mit inkretin-insulin-konjugaten
CN107572243A (zh) * 2017-09-14 2018-01-12 上海发那科机器人有限公司 一种自动下料系统
KR102600893B1 (ko) * 2018-04-13 2023-11-10 삼성디스플레이 주식회사 패널 이송 장치 및 패널 이송 방법
JP6763914B2 (ja) 2018-06-08 2020-09-30 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
JP6918756B2 (ja) 2018-08-31 2021-08-11 ファナック株式会社 検出システム
JP7022036B2 (ja) 2018-08-31 2022-02-17 ファナック株式会社 物品取出システム
CN109911549A (zh) * 2019-01-25 2019-06-21 东华大学 一种易损物品的机器人动态跟踪抓取系统及方法
CN111805533B (zh) * 2020-05-27 2022-05-03 扬州哈工科创机器人研究院有限公司 用于工件下料的装置、基于视觉定位的工件下料的方法
CN116773546B (zh) * 2023-06-20 2024-03-22 上海感图网络科技有限公司 一种镀铜板叠料缺陷检测方法、装置及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015055A (ja) 2005-07-07 2007-01-25 Toshiba Mach Co Ltd ハンドリング装置、作業装置及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
US5207331A (en) * 1991-08-28 1993-05-04 Westinghouse Electric Corp. Automatic system and method for sorting and stacking reusable cartons
JP3172287B2 (ja) * 1992-11-09 2001-06-04 マツダ株式会社 塗膜欠陥検出装置
JPH0748018A (ja) * 1993-08-03 1995-02-21 Omori Mach Co Ltd 物品移載装置用物品検出装置
US6035243A (en) * 1993-10-22 2000-03-07 Xerox Corporation System for handling defects produced during the automated assembly of palletized elements
JPH0957670A (ja) 1995-08-23 1997-03-04 Fujitsu Ltd ロボット軌道制御装置及び耐久性試験装置
JPH0972717A (ja) 1995-09-04 1997-03-18 Fanuc Ltd 画像の取得・処理方法
JP3629133B2 (ja) 1997-01-31 2005-03-16 本田技研工業株式会社 脚式移動ロボットの制御装置
DE19854011A1 (de) * 1998-11-12 2000-05-25 Knoll Alois Einrichtung und Verfahren zum Vermessen von Mechanismen und ihrer Stellung
JP2000219317A (ja) 1999-01-29 2000-08-08 Hitachi Zosen Corp 荷役仕分け装置
DE20216636U1 (de) * 2002-10-28 2004-03-11 Kuka Schweissanlagen Gmbh Bearbeitungsanlage
SE0301910L (sv) * 2003-06-26 2004-12-27 Abb Ab Datorstyrd arbetsplats med robotar
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
EP1927038A2 (de) * 2005-09-23 2008-06-04 Braintech Canada, Inc. System und verfahren zur visuellen verfolgung
JP2009028818A (ja) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd ロボットシステム
US8315736B2 (en) * 2008-04-25 2012-11-20 Fanuc Robotics America, Inc. Method and apparatus for picking/packing applications
US8473100B2 (en) * 2008-04-25 2013-06-25 Fanuc Robotics America, Inc. System and method for dynamically switching conveyors for robots
JP4621789B2 (ja) * 2009-06-02 2011-01-26 ファナック株式会社 物品搬送ロボットシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015055A (ja) 2005-07-07 2007-01-25 Toshiba Mach Co Ltd ハンドリング装置、作業装置及びプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014114272B4 (de) 2013-10-04 2019-03-07 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
US10692018B2 (en) 2016-09-27 2020-06-23 Fanuc Corporation Machine learning device and machine learning method for learning optimal object grasp route
DE102017008836B4 (de) * 2016-09-27 2020-09-24 Fanuc Corporation Maschinelle Lernvorrichtung und maschinelles Lernverfahren zum Lernen eines optimalen Objekt-Greifwegs
DE102017008832B4 (de) * 2016-09-28 2020-10-01 Fanuc Corporation Födervorrichtung zum Herausnehmen von Objekten nacheinander auf einem optimalen Weg
US10857673B2 (en) 2016-10-28 2020-12-08 Fanuc Corporation Device, method, program and recording medium, for simulation of article arraying operation performed by robot
DE102017125190B4 (de) 2016-10-28 2022-02-24 Fanuc Corporation Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln
DE102018002423B4 (de) 2017-03-31 2022-02-03 Fanuc Corporation Robotersteuerung, Vorrichtung für maschinelles Lernen und Verfahren für maschinelles Lernen
US10625415B2 (en) 2017-06-26 2020-04-21 Fanuc Corporation Robot system
DE102018212531B4 (de) * 2017-08-03 2020-09-10 Fanuc Corporation Artikeltransfervorrichtung
DE102020113278A1 (de) 2020-05-15 2021-11-18 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zur Steuerung des Betriebs eines Industrieroboters

Also Published As

Publication number Publication date
GB2471819A (en) 2011-01-12
US8805585B2 (en) 2014-08-12
GB2471819B (en) 2012-11-28
GB2492257B (en) 2013-02-13
GB201213595D0 (en) 2012-09-12
GB201019223D0 (en) 2010-12-29
WO2009148089A1 (ja) 2009-12-10
US20110082586A1 (en) 2011-04-07
GB2492257A (en) 2012-12-26

Similar Documents

Publication Publication Date Title
DE112009001414T5 (de) Bearbeitungssystem, Steuerungseinrichtung, Steuerungsverfahren und Programm
DE102016115987B4 (de) Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung
DE102006031178B4 (de) Greiferführungssystem, Bearbeitungssystem und Programm
DE102016000105B4 (de) Simulationsvorrichtung für robotersystem
DE112017007028B4 (de) Positionskontrollvorrichtung und Positionskontrollverfahren
DE102015102740B4 (de) Vorrichtung und Verfahren zum Anordnen von Gegenständen mittels Roboter und Gegenstandübertragungssystem
DE102018212531B4 (de) Artikeltransfervorrichtung
DE102016010283A1 (de) Bearbeitungssystem mit funktion zum beibehalten der bearbeitungsgenauigkeit
DE102019007720B4 (de) Robotervorrichtung
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE19781682B4 (de) Präzisionsvorrichtung mit nicht-steifer, nicht-präziser Struktur und Verfahren zum Betreiben derselben
DE102017001305A1 (de) Fehlerdiagnosevorrichtung eines Robotersystem zum Beurteilen eines Fehlers anhand eines Kamerabildes
DE102018116413A1 (de) Robotersystem
DE102016013731A1 (de) Robotersystem mit Funktionen zum Vereinfachen von Lehrvorgängen und Verbessern der Betriebsleistung durch Lernen
DE102017128652A1 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102010022357A1 (de) Roboteranordnung zum Befördern von Gegenständen
DE102014213518A1 (de) Verfahren, Bearbeitungsmaschine und Computerprogrammprodukt zum bildbasierten Platzieren von Werkstückbearbeitungsvorgängen
DE102009029061A1 (de) Verfahren und Vorrichtung zur Bearbeitungszustandsprüfung
DE102018117441B4 (de) Artikeltransportsystem und transportsystem-steuervorrichtung
DE102018107775B4 (de) Bearbeitungsweg-Anzeigegerät
DE102020100803B4 (de) Folgeroboter und Roboterarbeitssystem
DE102013020444A1 (de) Roboterbetriebssystem mit einer Viehlzahl von Robotern
DE102019131284B4 (de) Robotersystem und Koordinatenumwandlungsverfahren
DE102018117829A1 (de) Steuereinheit für Gelenkroboter
DE102018221299A1 (de) Linkinformationserzeugungsvorrichtung, Linkinformationserzeugungsverfahren und Linkinformationserzeugungsprogramm

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final