DE102020100803A1 - Folgeroboter und Roboterarbeitssystem - Google Patents

Folgeroboter und Roboterarbeitssystem Download PDF

Info

Publication number
DE102020100803A1
DE102020100803A1 DE102020100803.1A DE102020100803A DE102020100803A1 DE 102020100803 A1 DE102020100803 A1 DE 102020100803A1 DE 102020100803 A DE102020100803 A DE 102020100803A DE 102020100803 A1 DE102020100803 A1 DE 102020100803A1
Authority
DE
Germany
Prior art keywords
robot
function value
target
follow
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102020100803.1A
Other languages
English (en)
Other versions
DE102020100803B4 (de
Inventor
Masafumi OOBA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102020100803A1 publication Critical patent/DE102020100803A1/de
Application granted granted Critical
Publication of DE102020100803B4 publication Critical patent/DE102020100803B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/1005Programme-controlled manipulators characterised by positioning means for manipulator elements comprising adjusting means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it

Abstract

Ein Roboter 10 umfasst einen Arm 10a, einen oder mehrere an dem Arm 10a vorgesehene optische Sensoren 50, eine Speichereinheit, die einen ersten Funktionswert hinsichtlich mindestens einer Position und einer Ausrichtung eines zu folgenden Ziels speichert, wobei der erste Funktionswert als Zieldaten gespeichert wird, um die an dem Arm 10a vorgesehenen optischen Sensoren 50 zu veranlassen, dem zu folgenden Ziel zu folgen, eine Funktionswerterkennungseinheit, die einen zweiten Funktionswert hinsichtlich mindestens einer aktuellen Position und einer aktuellen Ausrichtung des zu folgenden Ziels erkennt, wobei der zweite Funktionswert unter Verwendung eines durch die optischen Sensoren 50 erzielten Bildes erkannt wird, eine Bewegungsbetragberechnungseinheit, die eine Bewegungsanweisung für den Arm 10a auf der Grundlage einer Differenz zwischen dem zweiten Funktionswert und dem ersten Funktionswert berechnet, und eine Bewegungsanweisungseinheit, die den Arm 10a auf der Grundlage der Bewegungsanweisung bewegt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft einen Folgeroboter und ein Roboterarbeitssystem.
  • STAND DER TECHNIK
  • Eine herkömmliche, bekannte Produktionslinie umfasst einen Roboter, eine Transfereinrichtung, die einen Artikel weiterleitet, entlang der Transfereinrichtung vorgesehene Schienen und eine Bewegungseinrichtung, die den Roboter entlang der Schienen bewegt (siehe zum Beispiel PTL 1). Bei dieser Produktionslinie führt der Roboter eine Fehlerprüfung und Polieren an dem Artikel durch, während der Artikel durch die Transfereinrichtung weitergeleitet wird. Während die Fehlerprüfung und das Polieren durchgeführt werden, bewegt die Bewegungseinrichtung den Roboter entlang der Schienen mit der gleichen Geschwindigkeit, mit der der Artikel durch die Transfereinrichtung weitergeleitet wird.
  • Es sind auch Techniken bekannt, die die Position und Ausrichtung des abgelegenen Endes des Roboters in Bezug auf eine stationäre Zielposition genau kalibrieren (siehe zum Beispiel PTL 2).
  • LITERATURLISTE
  • PATENTLITERATUR
    • PTL 1 Japanische nicht geprüfte Patentanmeldung, Veröffentlichung Nummer H08-72764
    • PTL 2 Japanische nicht geprüfte Patentanmeldung, Veröffentlichung Nr. 2017-170599
  • KURZDARSTELLUNG DER ERFINDUNG
  • TECHNISCHES PROBLEM
  • Die vorstehend genannte Produktionslinie führt lediglich Fehlerprüfung und Polieren durch. Im Gegensatz dazu ist es zum Beispiel in einem Fall, in dem eine Aufgabe durchgeführt wird, die eine mögliche Behinderung zwischen einem Roboter und einem Artikel verursachen kann, erforderlich, Gegenmaßnahmen zu treffen, um Schaden an dem Roboter, der Transfereinrichtung, dem Artikel und dergleichen zu verhüten. Allerdings ist es möglich, dass sich ein Artikel, der durch die Transfereinrichtung bewegt wird, unerwartet verhalten kann, wie beispielsweise Oszillieren, und daher ist es schwierig, die vorstehend genannte Schadensverhütung effektiv umzusetzen.
  • Im Hinblick auf den vorstehend beschriebenen Umstand bestand ein Bedarf nach Einführung eines Folgeroboters und eines Roboterarbeitssystems, die ein Werkzeug eines Roboters einen Artikel genau folgen lassen können.
  • LÖSUNG DES PROBLEMS
  • Ein erster Aspekt der vorliegenden Offenlegung zielt auf einen Folgeroboter ab, umfassend einen beweglichen Arm; einen oder mehrere an dem Arm vorgesehene optische Sensoren; eine Speichereinheit, die einen ersten Funktionswert hinsichtlich mindestens einer Position und einer Ausrichtung eines zu folgenden Ziels speichert, wobei der erste Funktionswert als Zieldaten gespeichert wird, um die an dem Arm vorgesehenen optischen Sensoren zu veranlassen, dem zu folgenden Ziel zu folgen; eine Funktionswerterfassungseinheit, die einen zweiten Funktionswert hinsichtlich mindestens einer aktuellen Position und einer aktuellen Ausrichtung des zu folgenden Ziels erkennt, wobei der zweite Funktionswert unter Verwendung eines durch die optischen Sensoren erzielten Bildes erkannt wird; eine Bewegungsbetragberechnungseinheit, die eine Bewegungsanweisung für den Arm auf der Grundlage einer Differenz zwischen dem zweiten Funktionswert und dem ersten Funktionswert berechnet; und eine Bewegungsanweisungseinheit, die den Arm auf der Grundlage der Bewegungsanweisung bewegt, wobei die Bewegungsbetragberechnungseinheit und die Bewegungsanweisungseinheit die Berechnung der Bewegungsanweisung und Bewegung des Arms auf der Grundlage der Bewegungsanweisung wiederholen, während der optische Sensor veranlasst wird, dem zu folgenden Ziel zu folgen, wobei die Bewegungsanweisung eine Anweisung ist, die eine Differenz zwischen der Ausrichtung des zu folgenden Ziels als zweiter Funktionswert und der Ausrichtung des zu folgenden Ziels als der erste Funktionswert verringert oder beseitigt.
  • Ein zweiter Aspekt der vorliegenden Offenlegung zielt auf ein Roboterarbeitssystem ab, umfassend eine Transfereinrichtung, die einen Artikel weiterleitet; und den vorstehend beschriebenen Folgeroboter, wobei in einem Zustand, in dem der optische Sensor des Folgeroboters dem zu folgenden Ziel folgt, der Folgeroboter eine vorgegebene Aufgabe an dem Artikel durchführt, oder ein Arbeitsroboter, der ein anderer Roboter ist, die vorgegebene Aufgabe an dem Artikel unter Verwendung von Information der Bewegungsanweisung, um den optischen Sensor des Folgeroboters zu veranlassen, dem zu folgenden Ziel zu folgen, oder Information, die bei der Berechnung der Bewegungsanweisung verwendet wird, durchzuführen.
  • Figurenliste
    • 1 ist eine schematische Konfigurationsansicht eines Roboterarbeitssystems einer Ausführungsform.
    • 2 ist ein Blockdiagramm einer Steuerung des Roboterarbeitssystems dieser Ausführungsform.
    • 3 ist ein Beispiel von durch einen optischen Sensor des Roboterarbeitssystems dieser Ausführungsform erfassten Bilddaten.
    • 4 ist ein Blockdiagramm, das einen Betrieb einer Steuereinheit des Roboterarbeitssystems dieser Ausführungsform darstellt.
    • 5 ist eine schematische Konfigurationsansicht eines Roboterarbeitssystems eines modifizierten Beispiels dieser Ausführungsform.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Ein Roboterarbeitssystems 1 gemäß einer Ausführungsform wird nunmehr nachstehend mit Bezug auf die Zeichnungen beschrieben.
  • Wie es in 1 dargestellt ist, umfasst das Roboterarbeitssystems 1 gemäß dieser Ausführungsform eine Transfereinrichtung 2, die einen Artikel 100, der ein Gegenstand ist, an dem eine Aufgabe durchgeführt werden soll, weiterleitet, einen Roboter (Folgeroboter) 10, der eine vorgegebene Aufgabe an einem Arbeitszielabschnitt 101 des Artikels 100 durchführt, der durch die Transfereinrichtung 2 weitergeleitet wird, eine Steuerung 20, die den Roboter 10 steuert, eine Erkennungseinrichtung 40, die ein Detektor im Zusammenhang mit der vorliegenden Erfindung ist, und einen an dem Roboter 10 befestigten optischen Sensor 50.
  • Die Erkennungseinrichtung 40 erkennt, ob der Artikel 100 an eine vorgegebene Position weitergeleitet worden ist oder nicht. Es ist möglich, eine beliebige Einrichtung zu verwenden, die eine solche Funktionalität wie die Erkennungseinrichtung 40 aufweist. Während die Erkennungseinrichtung 40 bei dieser Ausführungsform ein photoelektrischer Sensor ist, kann der optische Sensor 50 erkennen, ob der Artikel 100 an die vorgegebene Position weitergeleitet worden ist oder nicht.
  • Der Artikel 100 ist nicht auf einen bestimmten Typ beschränkt. Bei dieser Ausführungsform ist der Artikel 100 zum Beispiel eine Karosserie eines Fahrzeugs. Die Transfereinrichtung 2 leitet den Artikel 100 durch Antreiben einer Mehrzahl von Rollen 3 weiter, die durch einen Motor 2a angetrieben werden, und bei dieser Ausführungsform leitet die Transfereinrichtung 2 den Artikel 100 nach rechts in 1 weiter.
  • Die Arbeitszielabschnitte 101 sind Abschnitte des Artikels 100, an dem der Roboter 10 die vorgegebene Aufgabe durchführt. Bei dieser Ausführungsform hebt als die vorgegebene Aufgabe eine Hand 30 (d. h. ein Werkzeug) des Roboters 10 ein Bauteil 110 an und befestigt der Roboter 10 Montageabschnitte 111 des Bauteils 110 an den Arbeitszielabschnitten 101. Daraus ergibt sich, dass zum Beispiel Zapfen 111a, die sich aus den Montageabschnitten 111 nach unten erstrecken, mit an den Arbeitszielabschnitten vorgesehenen Löchern 101a des Artikels 110 in passenden Eingriff gebracht werden.
  • Es sollte festgestellt werden, dass der Roboter 10 die Montageabschnitte 111 des Bauteils 110 an den Arbeitszielabschnitten 101 in einem Zustand befestigt, in dem der Artikel 100 durch die Transfereinrichtung 2 bewegt wird.
  • Während der Roboter 10 nicht auf einen bestimmten Typ beschränkt ist, umfasst der bewegliche Arm 10a des Roboters 10 dieser Ausführungsform eine Mehrzahl von Servomotoren 11, die eine Mehrzahl von beweglichen Teilen einzeln antreiben (siehe 2). Jeder Servomotor 11 weist eine Betriebsposition-Erkennungseinrichtung auf, die eine Betriebsposition des Servomotors 11 erfasst, und die Betriebsposition-Erkennungseinrichtung ist zum Beispiel ein Impulsgeber. Ein Erkennungswert der Betriebsposition-Erkennungseinrichtung wird an die Steuerung 20 gesendet.
  • Die Hand 30 ist an einem abgelegenen Ende des Arms 10a befestigt. Die Hand 30 dieser Ausführungsform trägt das Bauteil 110, indem sie das Bauteil 110 mit einer Vielzahl von Klauen greift, jedoch kann auch eine Hand, die das Bauteil 110 unter Verwendung magnetischer Kraft, Luftansaugung oder anderer Mittel trägt, verwendet werden.
  • Die Hand 30 umfasst einen Servomotor 31, der die Klauen antreibt (siehe 2). Der Servomotor 31 weist eine Betriebsposition-Erkennungseinrichtung auf, die eine Betriebsposition des Servomotors 31 erkennt, und die Betriebsposition-Erkennungseinrichtung ist zum Beispiel ein Impulsgeber. Ein Erkennungswert der Betriebsposition-Erkennungseinrichtung wird an die Steuerung 20 gesendet.
  • Es sollte festgestellt werden, dass als die Servomotoren 11, 31 verschiedene Arten von Servomotoren, einschließlich ein Drehmotor und ein Linearmotor, verwendet werden können.
  • Ein Kraftsensor (Kraftdetektor) 32 ist an dem abgelegenen Ende des Roboters 10 befestigt. Der Kraftsensor 32 misst zum Beispiel Kräfte oder Drehmomente in den Richtungen parallel zu einer in 3 dargestellten X-Achse, Y-Achse und Z-Achse und Kräfte oder Drehmomente um die X-Achse, Y-Achse und Z-Achse. Der Kraftsensor 32 kann ein beliebiger Sensor sein, der die Richtung und die Größe einer auf die Hand 30 oder das von der Hand 30 gegriffene Bauteil 110 aufgebrachten Kraft erkennen kann. Zu diesem Zweck ist bei dieser Ausführungsform der Kraftsensor 32 zwischen dem Roboter 10 und der Hand 30 vorgesehen, jedoch kann der Kraftsensor 32 stattdessen innerhalb der Hand 30 vorgesehen sein.
  • Der optische Sensor 50 ist an dem abgelegenen Ende des Arms 10a befestigt. Bei einem Beispiel ist der optische Sensor 50 an einem Handgelenkflansch des Roboters 10 unter Verwendung des Rahmens 50a befestigt. Bei dieser Ausführungsform ist der optische Sensor 50 eine zweidimensionale Kamera. Der optische Sensor 50 dieser Ausführungsform erfasst fortlaufend Teile von Bilddaten des zu folgenden Ziels 102 in einem Zustand, in dem das zu folgende Ziel 102, dessen Position und Ausrichtung sich in Bezug auf den Arbeitszielabschnitt 101 nicht ändern, innerhalb des vorgegebenen Bereichs des Blickwinkels erscheint, wie es in 3 dargestellt ist.
  • Während das zu folgende Ziel 102 bei dieser Ausführungsform dem oberen Flächenabschnitt entspricht, der in 3 mit Schraffurlinien angegeben ist, ist es auch möglich, jeden anderen Abschnitt zu verwenden, dessen Position und Ausrichtung sich nicht in Bezug auf den Arbeitszielabschnitt 101 ändern.
  • Es sollte festgestellt werden, dass der optische Sensor 50 an einem Werkzeug, wie beispielsweise der Hand 30, befestigt sein kann. Der optische Sensor 50 kann auch an jedem anderen Abschnitt des Roboters 10 befestigt sein, dessen relative Position und Ausrichtung sich nicht in Bezug auf das Werkzeug, wie beispielsweise die Hand 30, ändern.
  • Der optische Sensor 50 sendet fortlaufend die Bilddaten an die Steuerung 20. Die Bilddaten sind Daten, durch die die Position und Ausrichtung des zu folgenden Ziels 102 spezifiziert werden können. Die Bilddaten können durch einen von der Steuerung 20 verschiedenen Detektor verarbeitet werden und die Position und Ausrichtung des zu folgenden Ziels 102 können auf der Grundlage der verarbeiteten Daten identifiziert werden.
  • Das zu folgende Ziel 102 kann ein Abschnitt des Artikels 100 mit einer vorgegebenen Form, ein Abschnitt mit einer darauf versehenen, vorgegebenen Markierung usw. sein. In diesen Fällen sind die Bilddaten ein Datenteil, durch das die Position und Ausrichtung des vorstehend genannten Abschnitts auf dem Bild identifiziert werden kann.
  • Wenn bei einem Beispiel eines bildbasierten Verfahrens das zu folgende Ziel 102 in einer Zielposition mit einer Ausrichtung oder mit einer Größe der Bilddaten (Erkennungsbereich) in dem optische Sensor 50 angeordnet ist, dann werden die Position und Ausrichtung der auf dem Arm 10a befestigten Hand 30 in einer Position und Ausrichtung platziert, die für die vorgegebene Aufgabe an dem Artikel 100 notwendig ist. Bei einem Beispiel eines bildbasierten Verfahrens und in dem Fall, bei dem die Position und die Ausrichtung der an dem Arm 10a befestigten Hand 30 und die Position und Ausrichtung des optischen Sensors 50 durch Kalibrierung in Übereinstimmung miteinander gebracht sind, erkennt die Steuerung 20 die Position und die Ausrichtung des zu folgenden Ziels 102 in dem Koordinatensystem des Roboters 10 auf der Grundlage der Bilddaten und kann die Steuerung 20 die an dem Arm 10a vorgesehene Hand 30 in die Position und Ausrichtung bewegen, die für die vorstehend genannte, vorgegebene Aufgabe notwendig ist. Bei dieser Ausführungsform wird ein Zustand hergestellt, bei dem die Zapfen 111a der Montageabschnitte 111 des Bauteils 110 mit den in den Arbeitszielabschnitten vorgesehenen Löchern 101a des Artikels 110 in passenden Eingriff gebracht werden können. Es sollte festgestellt werden, dass der Artikel 100 in einigen Fällen auf der Transfereinrichtung 2 pendeln kann. Zum Beispiel pendelt der Artikel 100 in einem Fall, in dem die Mehrzahl von Rollen 3 der Transfereinrichtung 2 nicht in einer perfekten Ebene angeordnet sind. Falls der Artikel 100 groß ist, kann ein leichtes Pendeln des Artikels 100 an seiner unteren Seite zu einem starken Pendeln des Arbeitszielabschnitts 101 führen. In Hinblick darauf ist eine Anpassung der Ausrichtung der an dem Arm 10a vorgesehenen Hand 30 wichtig.
  • Bei einem Beispiel des bildbasierten Verfahrens werden eine Änderung der Position, Ausrichtung, Größe und dergleichen des zu folgenden Ziels 102 bei den Bilddaten des optischen Sensors 50 und die Änderung der Position und Ausrichtung des Koordinatensystems des Roboters 10 im Voraus in der Steuerung 20 miteinander in Übereinstimmung gebracht.
  • Wie es in 2 dargestellt ist, umfasst die Steuerung: eine Steuereinrichtung 21 mit einer CPU, einem RAM und dergleichen; eine Anzeigeeinrichtung 22; eine Steuereinheit 23 mit einer nichtflüchtigen Speichereinheit, einem Rom und dergleichen; eine Mehrzahl von Servosteuerungen 24, die jeweils den Servomotoren 11 des Roboters 10 entsprechen; eine Servosteuerung, die dem Servomotor 31 der Hand 30 entspricht; und eine Eingabeeinheit 26, die mit der Steuerung 20 verbunden ist.
  • Bei einem Beispiel ist die Eingabeeinheit 26 eine Eingabeeinrichtung, wie beispielsweise ein Bedienfeld, das eine Bedienperson mitführen kann. In einigen Fällen kommuniziert die Eingabeeinheit 26 drahtlos mit der Steuerung 20.
  • Ein Systemprogramm 23a ist in der Speichereinheit 23 gespeichert und das Systemprogramm 23a umfasst Basisfunktionen der Steuerung 20. Ferner ist auch das Tätigkeitsprogramm 23b in der Speichereinheit 23 gespeichert. Zusätzlich sind ein Folgesteuerprogramm (Bewegungsanweisungsmittel) 23c, ein Kraftsteuerprogramm 23d, ein Funktionswerterkennungsprogramm (Funktionswerterkennungsmittel) 23e und ein Bewegungsbetragberechnungsprogramm (Bewegungsbetragberechnungsmittel) 23f in der Speichereinheit 23 gespeichert.
  • Auf der Grundlage dieser Programme sendet die Steuereinheit 21 Bewegungsanweisungen zur Durchführung der vorgegebenen Aufgabe an dem Artikel 100 an die einzelnen Servosteuerungen 24, 25. Daraus ergibt sich, dass der Roboter 10 und die Hand 30 die vorgegebene Aufgabe an dem Artikel 100 durchführen.
  • Die Arbeitsweise der Steuereinheit 21 in diesem Verfahren wird nunmehr mit Bezug auf das Flussdiagramm von 4 beschrieben.
  • Wenn der Artikel 100 durch die Erkennungseinrichtung 40 erkannt wird (Schritt S1-1), beginnt die Steuereinheit 21 zunächst die Übertragung von vorbereitenden Bewegungsanweisungen an den Roboter 10 und die Hand 30 auf der Grundlage des Tätigkeitsprogramms 23b (Schritt S1-2). Daraus ergibt sich, dass der Roboter 10 die Zapfen 111a des von der Hand 30 gegriffenen Bauteils 110 näher an die Löcher 101 a des Arbeitszielabschnitts 101 bringt. An diesem Punkt kann die Steuereinheit 21 Daten, wie beispielsweise die Transfergeschwindigkeit der Transfereinrichtung 2 oder die Positionen der Arbeitszielabschnitte 101 des Artikels 100, verwenden.
  • Ferner werden nach dem Schritt S1-4, der später beschrieben wird, die Zapfen 111a des Bauteils 110 mit den Löchern 101a des Artikels 100 auf der Grundlage des Tätigkeitsprogramms 23b in passenden Eingriff gebracht. Es sollte festgestellt werden, dass in dem Schritt S1-1 der Artikel 100 durch den optischen Sensor 50 anstelle der Erkennungseinrichtung 40 erfasst werden kann.
  • Als Folge der Steuerung des Roboters 10 in Schritt S1-2, erreicht das Bauteil 110 die betriebsbereite Position und Ausrichtung für eine vorgegebene Aufgabe (passender Eingriff). Wenn infolgedessen das zu folgende Ziel 102 somit innerhalb eines Blickwinkels (Erkennungszone) des optischen Sensors 50 oder innerhalb eines vorgegebenen Bereichs des Blickwinkels vorhanden ist (Schritt S1-3), startet die Steuereinheit 21 dann die Steuerung auf der Grundlage des Folgesteuerprogramms 23c, des Funktionswerterkennungsprogramms 23e und des Bewegungsbetragberechnungsprogramms 23f (Schritt S1-4). Die nachstehend beschriebene Steuerung wird zum Beispiel bei Schritt S1-4 durchgeführt.
  • Es sollte festgestellt werden, dass bei der nachstehend beschriebenen Steuerung zumindest die Position und Ausrichtung des zu folgenden Ziels 102 auf der Grundlage der Bilddaten des optischen Sensors 50 erkannt werden und die Steuereinheit 21 die Position und Ausrichtung des an dem Arm 10a befestigten optischen Sensors 50 veranlasst, dem zu folgende Ziel 102 auf der Grundlage der Position und Ausrichtung, die erkannt worden sind, zu folgen. Da hier die Position und Ausrichtung des optischen Sensors 50 in Bezug auf die Hand 30 fest sind, folgt die Hand 30 des Roboters 10 dem Artikel 100 in einer solchen Weise, dass das gefolgte Ziel 102 immer an der Zielposition und mit der Zielausrichtung in den Bilddaten des optischen Sensors 50 angeordnet ist.
  • Eine derartige Steuerung wird zum Beispiel durch die nachstehend beschriebene Steuerung umgesetzt.
  • Gemäß dieser Steuerung werden die Zielposition, Zielausrichtung und Zielgröße, mit denen das zu folgende Ziel 102 in den Bilddaten angeordnet werden sollte, als der erste Funktionswert in der Speichereinheit 23 gespeichert. Die Zielgröße kann die Größe der Kontur in dem Fall sein, bei dem die Kontur als die Funktion gilt.
  • Die Steuereinheit 21 erkennt die Position, Ausrichtung und Größe des zu folgenden Ziels 102 auf den fortlaufend durch den optischen Sensor 50 erzielten Teilen von Bilddaten auf der Grundlage des Funktionswerterkennungsprogramms 23e als Erkennung des zweiten Funktionswerts.
  • Die Steuereinheit 21 führt zum Beispiel eine Übereinstimmungssuche zwischen einem projektiven Transformationsmodell und dem zu folgenden Ziel 102 in den Bilddaten durch, während sie eine projektive Transformation an dem in der Speichereinheit 23 gespeicherten Modell des zu folgenden Ziels 102 durchführt, und erkennt dadurch die Position und Ausrichtung des zu folgenden Ziels 102. Das Modell kann unter Verwendung von CAD-Daten oder dergleichen erstellt werden oder kann von einem tatsächlichen Ziel erstellt werden. Da die relative Position und relative Ausrichtung des Arbeitszielabschnitts 101 in Bezug auf das zu folgende Ziel 102 fest sind, kann die Steuereinheit 21 die relative Position und relative Ausrichtung des abgelegenen Endes des Arms 10a in Bezug auf das zu folgende Ziel 102 auf der Grundlage der Position und Ausrichtung des zu folgenden Ziels 102 erzielen.
  • Die Steuereinheit 21 berechnet auf der Grundlage des Bewegungsbetragberechnungsprogramms 23f eine Bewegungsanweisung, damit die Position, Ausrichtung und Größe des zu folgenden Ziels 102 in den Bilddaten mit dem ersten Funktionswert übereinstimmen.
  • Die Bewegungsanweisung, die berechnet worden ist, wird verwendet, um die Differenz zwischen der Position, Ausrichtung und Größe des zu verfolgenden Ziels 102 in den Bilddaten und dem ersten Funktionswert zu beseitigen oder zu verringern. Die Bewegungsanweisung, die berechnet worden ist, wird zum Beispiel verwendet, um die Position der an dem Arm 10a befestigten Hand 30 in der X-Achsenrichtung, der Y-Achsenrichtung und der Z-Achsenrichtung und die Ausrichtung der Hand 30 um die X-Achse, Y-Achse und Z-Achse zu ändern.
  • Es sollte festgestellt werden, dass bei der vorstehend genannten Steuerung die Steuereinheit 21 ferner die Bewegungsanweisung, die berechnet worden ist, auf der Grundlage von entsprechend einer mechanischen Eigenschaft des Arms 10a definierten Parametern angepasst werden kann. Zum Beispiel ist das Drehmoment, dem der Arm 10a aufgrund der Steifigkeit des gesamten Arms 10a oder eines Teils davon, der Steifigkeit der einzelnen beweglichen Teile, des Gewichts der Hand 30, des Gewichts des Bauteils 110, des Gewichts der Hand 30 und des Bauteils 110 und dergleichen ausgesetzt ist, in der vorstehend genannten mechanischen Eigenschaft enthalten. Da außerdem der Betrag der Durchbiegung, ihre Richtung usw. des Arms 10a sich entsprechend des Winkels eines Gelenks ändert, das ein bewegliches Teil des Arms 10a ist, sind auch die Zustände der einzelnen beweglichen Teile des Arms 10a in der vorstehend genannten mechanischen Eigenschaft enthalten.
  • Mit anderen Worten, wenn sich die Stellung des Arms 10a aufgrund der Bewegungsanweisung ändert, ändern sich das Drehmoment, dem der Arm 10a aufgrund des Gewichts der Hand 30 und des Bauteils 110 oder dergleichen ausgesetzt ist, die Zustände der einzelnen beweglichen Teile des Arms 10a und dergleichen entsprechend der Änderung der Stellung. Aufgrund dessen kann die Hand 30 dem Artikel 100 genauer folgen, wenn die Bewegungsanweisung mit diesen mechanischen Eigenschaften angepasst wird.
  • Die Steuereinheit 21 kann die Tendenz der Veränderung des zweiten Funktionswerts unter Verwendung einer Mehrzahl von aufeinander folgenden Bilddatenteilen erzielen. Wenn zum Beispiel die Position, Ausrichtung und Größe des zu folgenden Ziels 102 in den Bilddaten des optischen Sensors 50 sich allmählich näher zu dem ersten Funktionswert bewegen, der die Zieldaten darstellt, dann kann die Tendenz der Veränderung der relativen Positionen und relative Ausrichtung des optischen Sensors 50 in Bezug auf das zu folgende Ziel 102 aus einer Mehrzahl von aufeinander folgenden Bilddatenteilen erfasst werden.
  • Falls die vorstehend genannte relative Position und vorstehend genannte relative Ausrichtung die Tendenz der Veränderung zeigt, kann die Steuereinheit 21 dann die Bewegungsanweisung unter Verwendung einer Optimalwertsteuerung basierend auf der vorstehend genannten Tendenz auf der Grundlage des Bewegungsbetragberechnungsprogramms 23f anpassen. Zum Beispiel kann eine Durchschnittsgeschwindigkeit aus der Veränderung des Bewegungsbetrags ermittelt werden und kann eine Grundgeschwindigkeit davon als die Optimalwertsteuerung eingegeben werden. Durch Verwendung der Optimalwertsteuerung kann der Abweichungsbetrag durch die Rückkopplungsregelung in einem Zustand gesteuert werden, in dem die Relativgeschwindigkeit in Bezug auf das Ziel auf einem konstanten Niveau bis zu einem gewissen Grad gehalten wird. Falls Optimalwertsteuerung nicht eingesetzt wird, kann dann ein Moment eintreten, zu dem die Transfergeschwindigkeit des Roboters Null wird, wenn die Merkmale der Bilder miteinander übereinstimmen. In diesem Fall ist es möglich, dass Verzögerung und Beschleunigung häufig auftreten, jedoch können derartige Verzögerung und Beschleunigung durch Einsatz von Optimalwertsteuerung verhindert werden. Die bei der Optimalwertsteuerung zu verwendenden Korrekturdaten werden vorzugsweise einem bekannten Filterverfahren, wie beispielsweise gleitender Durchschnitt, Glättungsverfahren usw. unterzogen. Als Folge davon, wenn die Änderung der Position und Ausrichtung des Artikels 100 aufgrund von Störung, durch die Genauigkeit der Transfereinrichtung 2 verursachtem Pendeln des Artikels 100, möglichem Überschwingen, elektrischem Rauschen und dergleichen identifiziert worden sind, wird es der Steuereinheit 21 dann ermöglicht, eine angemessene Reaktion auf die Änderung aufgrund der Störung oder des durch die Genauigkeit der Transfereinrichtung 2 verursachten Pendelns durchzuführen, eine Verringerung des Überschwingens zu erreichen und das elektrische Rauschen und dergleichen zu beseitigen.
  • Es sollte festgestellt werden, dass die Eingabewerte, wie beispielsweise die in die Optimalwertsteuerung einzugebende Grundgeschwindigkeit, auf der Grundlage von denjenigen, die durch ein externes Messinstrument gemessen worden sind, fakultativ eingegeben werden können.
  • Ein Robotermodell kann erstellt werden, das die Durchbiegung (Torsion) eines Reduzierstücks berücksichtigt, um die Oszillation des Arms durch Abschätzung und Rückkopplung der Oszillation des Arms zu verringern.
  • Die Steuereinheit 21 kann auch Interpolation der Ergebnisse der Erkennung des zweiten Funktionswerts durch Verwendung der Tendenz der Veränderung der vorstehend genannten relative Position und vorstehend genannten relativen Ausrichtung durchführen. Aufgrund dessen wird selbst in einem Fall, bei dem der Zyklus der Erfassung des zweiten Funktionswerts genauso lang ist wie der Zyklus der Bildererfassung durch den optischen Sensor 50, durch die Interpolation der Erkennungsergebnisse die Abschätzung des zweiten Funktionswerts in der Mitte des Erfassungszyklus und die Abschätzung des zweiten Funktionswerts in der Zukunft und dergleichen möglich.
  • Aufgrund der vorstehend beschriebenen Steuerung veranlasst die Steuereinheit 21 die Hand 30 des Arms 10a, dem Arbeitszielabschnitt 101 zu folgen. Daraus ergibt sich, dass die Position und Ausrichtung der Zapfen 111a der Montageabschnitte 111 des Bauteils 110 und die Position und Ausrichtung der Löcher 101a der Arbeitszielabschnitte 101 miteinander übereinstimmen.
  • Wie es vorstehend beschrieben wurde, werden die Änderung der Position, Ausrichtung und Größe des zu folgenden Ziels 102 in den Bilddaten des optischen Sensors 50 und die Änderung der Position und Ausrichtung des Koordinatensystems des Roboters 10 in der Steuerung 20 dazu gebracht, einander zu entsprechen. Aufgrund dessen bewegt sich das Koordinatensystem des Roboters 10 in der Transferrichtung der Transfereinrichtung 2 und die Position und Ausrichtung des Koordinatensystems können mit der Bewegung des Artikels 100 durch die Transfereinrichtung 2 identisch gemacht werden, wenn der optische Sensor 50 dem zu folgenden Ziel 102 folgt. Während der Arbeitszielabschnitt 101 des Artikels 100 durch die Transfereinrichtung 2 bewegt wird, wird in dieser Situation der Arbeitszielabschnitt 101 gesehen werden, als ob er in dem Koordinatensystem gestoppt sei, wenn er von der Steuereinheit 21 betrachtet wird.
  • In dem Zustand der vorstehend beschriebenen Steuerung startet die Steuereinheit 21 die Kraftsteuerung auf der Grundlage des Kraftsteuerprogramms 23d (Schritt S1-5).
  • Allgemein bekannte Kraftsteuerung kann als Kraftsteuerung verwendet werden. Bei dieser Ausführungsform bewegt der Roboter 10 das Bauteils 110 in einer Richtung weg von der durch den Kraftsensor 32 erkannten Kraft. Der Betrag dieser Bewegung wird durch die Steuereinheit 21 gemäß dem Erkennungswert des Kraftsensor 32 ermittelt.
  • Wenn zum Beispiel die Zapfen 111a des von der Hand 30 gegriffenen Bauteils 110 und die Löcher 101a des Artikels 100 beginnen, in passenden Eingriff gebracht zu werden, und in dieser Situation die Kraft in der von der Transferrichtung der Transfereinrichtung 2 entgegengesetzten Richtung durch den Kraftsensor 32 erkannt wird, bewegt die Steuereinheit 21 dann das Bauteil 110 in die zu der Transferrichtung entgegengesetzten Richtung weg von der erkannten Kraft.
  • Wenn anschließend die auf der Grundlage der Bilddaten des optischen Sensors 50 fortlaufend erkannten zweiten Funktionswerte über ein festgelegtes Kriterium hinaus variieren (Schritt S1-6), führt die Steuereinheit 21 eine erste Anomalie-Reaktionsmaßnahme durch (Schritt S1-7). Die Variation über das vorgegebene Kriterium hinaus bezieht sich auf eine signifikante Bewegung des zu folgenden Ziels 102 in den Bilddaten, eine Bewegung mit einer Geschwindigkeit größer als eine vorgegebene Geschwindigkeit des zu folgenden Ziels 102 in den Bilddaten oder dergleichen.
  • Wenn die Stromversorgung nicht stabil ist, kann die Drehzahl des Motors 2a rapide fallen. Die Drehzahl des Motors 2a variiert in einigen Fällen somit signifikant. In solchen Fällen werden die Positionen des zu folgenden Ziels 102 in Bezug auf das abgelegene Ende des Arms 10a über das vorstehend genannte, vorgegebene Kriterium hinaus variieren.
  • Als die erste Anomalie-Reaktionsmaßnahme führt die Steuereinheit 21 eine Maßnahme der Verkürzung des Steuerzyklus oder Verbesserung der Empfindlichkeit der Kraftsteuerung, eine Maßnahme des Anhaltens des weiteren passenden Eingriffs, eine Maßnahme des Anhaltens der Tätigkeit des passenden Eingriffs, eine Maßnahme der Evakuierung in einer zu der passenden Eingriffsrichtung entgegengesetzten Richtung, eine Maßnahme des Anhaltens der Weiterleitung oder eine beliebige Kombination dieser Maßnahmen usw. durch. Verkürzung des Steuerzyklus oder Verbesserung der Empfindlichkeit der Kraftsteuerung kann den Roboter 10 veranlassen, sich mit größerer Ansprechempfindlichkeit bei Aufbringen einer Kraft auf das Bauteil 110 zu bewegen. Bei dieser Ausführungsform führt die Steuereinheit 21 eine Maßnahme des Anhaltens der Tätigkeit des passenden Eingriffs, eine Maßnahme der Evakuierung in einer zu der passenden Eingriffsrichtung entgegengesetzten Richtung, eine Maßnahme des Anhaltens der Transfereinrichtung oder eine Maßnahme von Kombinationen dieser Maßnahmen usw. durch.
  • Wenn ferner der Erkennungswert des Kraftsensors 32 einen vorgegebenen Kriteriumswert überschreitet (Schritt S1-8), führt die Steuereinheit 21 eine zweite Anomalie-Reaktionsmaßnahme durch (Schritt S1-9). Wenn der Erkennungswert des Kraftsensors 32 den vorgegebenen Kriteriumswert überschreitet, ist es sehr wahrscheinlich, dass eine anormale Kraft auf das Bauteil 110, den Artikel 100, usw. aufgebracht wird. Dementsprechend führt die Steuereinheit 21 als die zweite Anomalie-Reaktionsmaßnahme eine Maßnahme des Anhaltens des Roboters 10, eine Maßnahme einer Bewegung des Roboters 10 in eine von der Richtung der durch den Kraftsensor 32 erkannten Kraft weg gerichteten Richtung, eine Maßnahme des Anhaltens der Transfereinrichtung, eine Maßnahme der Evakuierung in einer zu der passenden Eingriffsrichtung entgegengesetzten Richtung, eine Maßnahme des Anhaltens der Weiterleitung oder eine Maßnahme von Kombinationen dieser Maßnahmen usw. durch. Bei dieser Ausführungsform führt der Steuereinheit 21 eine Maßnahme des Anhaltens des Roboters 10 durch.
  • In der Zwischenzeit ermittelt die Steuereinheit 21, ob die Tätigkeit des passenden Eingriffs abgeschlossen worden ist oder nicht (ermittelt zum Beispiel, ob der Fortschrittsabstand in der Z-Achsenrichtung einen vorgegebenen Wert überschritten hat oder nicht) (Schritt S1-10). Wenn die Tätigkeit des passenden Eingriffs abgeschlossen worden ist, sendet die Steuereinheit 21 dann eine vorgegebene Bewegungsanweisung und/oder Maßnahmenanweisung an den Arm 10a und die Hand 30 (Schritt S1-11). Als Folge davon lässt die Hand 30 das Bauteil 110 los und bewegt sich vom Bauteil 110 weg, so dass die Hand 30 durch den Arm 10a in eine Stand-By-Position oder an eine Stelle bewegt wird, an der die nächste Komponente 110 bevorratet wird.
  • Es sollte festgestellt werden, dass bei der vorstehend beschriebenen Ausführungsform die Steuereinheit 21 eine Erkennungsverarbeitung in weitem Bereich durchführen kann, um den zweiten Funktionswert in dem ersten Bereich in den Bilddaten auf der Grundlage des Funktionswerterkennungsprogramms 23e zu erkennen, und anschließend eine Erkennungsverarbeitung in engem Bereich in dem zweiten Bereich in den Bilddaten, die anschließend erzielt werden, durchführen kann. Die Erkennungsverarbeitung in engem Bereich bezieht sich auf ein Verfahren zur Erkennung des zweiten Funktionswerts innerhalb des zweiten Bereichs, der enger als der erste Bereich ist. Wenn zum Beispiel die Differenz zwischen dem ersten Funktionswert und dem zweiten Funktionswert groß ist, wird die Erkennungsverarbeitung in weitem Bereich durchgeführt wird, und wenn die Differenz zwischen dem ersten Funktionswert und dem zweiten Funktionswert gleich oder kleiner als ein vorgegebener Wert wird, wird die Erkennungsverarbeitung in engem Bereich durchgeführt. Als Folge davon wird es ermöglicht, wenn die Differenz zwischen dem ersten Funktionswert und dem zweiten Funktionswert klein wird, eine verbesserte Verarbeitungsgeschwindigkeit und verbesserte Verarbeitungsgenauigkeit usw. zu erzielen.
  • Unabhängig von diesem Verfahren oder in Verbindung mit diesem Verfahren kann die Steuereinheit 21 eine Zone, die das in den Bilddaten erkannte, zu folgende Ziel 102 umfasst, als die Erkennungszone des zweiten Funktionswerts auf der Grundlage des Funktionswerterkennungsprogramms 23e festlegen. Zum Beispiel kann die Erkennungszone festgelegt werden, indem ein Begrenzungsrechteck in Kontakt mit der Kontur des erkannten, zu folgenden Ziels 102 festgelegt wird und das Begrenzungsrechteck mit einer vorgegebenen Vergrößerung vergrößert wird. Zusätzlich kann die vorstehend genannte Vergrößerung gemäß den Abmessungen (Größe) des zu folgenden Ziels 102 in den Bilddaten, dem Abstand zwischen dem optischen Sensor 50 und dem zu folgenden Ziel 102 usw. geändert werden. Wenn zum Beispiel der optische Sensor 50 und das zu folgende Ziel 102 bewegt werden, um sich einander zu nähern, nimmt der Bewegungsbetrag auf dem Bild des zu folgenden Ziels 102 innerhalb der Bilddaten zu, so dass die vorstehend genannte Vergrößerung erhöht wird. Als Folge davon wird die Erkennung der Position und Ausrichtung des zu folgenden Ziels 102 effizient und genau vorgenommen.
  • Wie es ferner in 5 gezeigt ist, kann die Hand 30, die ein Werkzeug ist, an dem Arbeitsroboter 60 befestigt sein, der ein anderer Roboter ist. In diesem Fall werden der Arm 60a des Arbeitsroboters 60 und die Hand 30 durch die Steuerung 70 gesteuert. Bei einem Beispiel weist die Steuerung 70 die gleiche Konfiguration wie die der Steuerung 20 auf und weist auch der Arm 60a die gleiche Konfiguration wie die des Arms 10a auf. Die Position und Richtung des Koordinatensystems des optischen Sensors 50 und die Position und Richtung des Koordinatensystems des Roboters 60 entsprechen in der Steuerung 70 einander. In einem Zustand, in dem die Steuereinheit 21 den optischen Sensor 50 veranlasst, dem zu folgenden Ziel 102 zu folgen, veranlasst die Steuerung 70 den Roboter 60, in dem Koordinatensystem des Roboters 60 zu arbeiten. Da sich die Position und Ausrichtung des Koordinatensystems des Roboters 60 entsprechend der Position und Ausrichtung in dem Koordinatensystem des optischen Sensors 50 ändert, kann die Steuerung 70 Aufgaben unter Verwendung des Tätigkeitsprogramms 23b, das auf der Grundlage des Koordinatensystems des Roboters 60 konfiguriert ist, durchführen.
  • Auch in diesem Fall ist es möglich, wie es vorstehend beschrieben wurde, wenn die Steuerung 20 die Position und Ausrichtung des optischen Sensors 50 veranlasst, dem zu folgenden Ziel 102 zu folgen, die Information der Bewegungsanweisung, die Position und Ausrichtung in dem Koordinatensystem des Roboters 60 zu veranlassen, dem Arbeitszielabschnitt 101 auf der Grundlage der Information oder dergleichen der Differenz zwischen dem zweiten Funktionswert und dem erste Funktionswert zu folgen. Als Folge davon folgt die Hand 30 des Roboters 60 dem Artikel 100, wenn der Roboter 60 die Aufgabe durchführt, die Zapfen 111a des Bauteils 110 in passenden Eingriff mit den Löchern 101a des Artikels 100 auf der Grundlage des Tätigkeitsprogramms 23b zu bringen.
  • Es sollte festgestellt werden, dass die Steuerung 20 und die Steuerung 70 mit einem Hauptsteuersystem verbunden sein kann, wie beispielsweise einem Produktionsverwaltungssystem oder dergleichen, und Übertragung der vorstehend genannten Information zwischen der Steuerung 20 und der Steuerung 70 über das Hauptsteuersystem stattfinden kann.
  • Es sollte festgestellt werden, dass anstelle des Roboters 60 es auch möglich ist, einen Roboter zu verwenden, der entlang der Transfereinrichtung 20 und über der Transfereinrichtung 20 angeordnete Schienen und einen zu den Schienen beweglich befestigten beweglichen Arm umfasst. In diesem Fall ist der optische Sensor 50 an dem abgelegenen Ende des beweglichen Arms befestigt und ist der bewegliche Arm derartig ausgelegt, dass die Ausrichtung seines abgelegenen Endes und die Ausrichtung des optischen Sensors 50 zum Beispiel um die X-Achse und um die Y-Achse geändert werden können. Während der bewegliche Arm vorzugsweise derartig ausgelegt ist, dass die Positionen seines abgelegenen Endes und des optischen Sensors 50 in der Y-Achsenrichtung beweglich sein können, muss der bewegliche Arm nicht derartig ausgelegt sein, dass die Positionen seines abgelegenen Endes und des optischen Sensors 50 in Y-Achsenrichtung frei bewegt werden können.
  • Auch in diesem Fall kann die Position und Ausrichtung des an dem beweglichen Arm befestigten optischen Sensors 50 dem zu folgenden Ziel 102 folgen. Es sollte festgestellt werden, dass selbst in einem Fall, in dem sich das abgelegene Ende des beweglichen Arms nicht frei in der Y-Achsenrichtung bewegt, die Position in der X-Achsenrichtung und die Ausrichtung um die X-Achse und Y-Achse des an dem beweglichen Arm befestigten optischen Sensors 50 das zu folgende Ziel 102 auf der Grundlage der Differenz zwischen dem zweiten Funktionswert und dem ersten Funktionswert folgen können. Falls das Folgen selbst in einem Fall möglich ist, bei dem sich das zu folgende Ziel 102 in Y-Achsenrichtung in den Bilddaten bewegt, können der Bewegungsbetrag und ähnliche Tätigkeit und Effekte, wie sie im Vorstehenden beschrieben wurden, gewonnen werden.
  • Es sollte festgestellt werden, dass die Form oder dergleichen des zu folgenden Ziels 102 zusätzlich als der zweite Funktionswert erkannt werden kann. In diesem Fall wird der erste Funktionswert hinsichtlich der Form oder dergleichen des zu folgenden Ziels 102 in der Speichereinheit 23 gespeichert. Da die Form des zu folgenden Ziels 102 in Abhängigkeit von dem Abstand zwischen dem Arm 10a und dem zu folgenden Ziel 102 und dem Winkel variiert, wird die Folgesteuerung genauer umgesetzt.
  • Es sollte festgestellt werden, dass es auch möglich ist, eine Mehrzahl von optischen Sensoren 50 zu verwenden, um die Mehrzahl von optischen Sensoren 50 zu veranlassen, einer Mehrzahl von Zielen 102 einzeln zu folgen. Wenn in diesem Fall das zu folgende Ziel 102 an den einzelnen vorgegebenen Positionen in der Vielzahl von Teilen von durch die Mehrzahl von optischen Sensoren 50 erzielten Bilddaten angeordnet ist, ist es auch möglich, zu ermitteln, dass die an dem Arm 10a befestigte Hand 30 mit einer vorgegebenen Position und einer vorgegebenen Ausrichtung in Bezug auf den Arbeitszielabschnitt 101 des Artikels 100 angeordnet worden ist.
  • Wie es im Vorstehenden beschrieben worden ist, umfasst der Roboter 10 dieser Ausführungsform den einen oder die mehreren an dem Arm 10a vorgesehenen optischen Sensoren 50 und die Speichereinheit 23, die den ersten Funktionswert als die Zieldaten speichert, um den an dem Arm 10a vorgesehenen optischen Sensor 50 zu veranlassen, dem zu folgenden Ziel 102 zu folgen. Zusätzlich wird bei dieser Ausführungsform der zweite Funktionswert hinsichtlich zumindest der aktuellen Position und aktuellen Ausrichtung des zu folgenden Ziels 102 unter Verwendung des durch den optischen Sensor 50 erzielten Bildes erkannt. Zusätzlich wird die Bewegungsanweisung des Arms 10a auf der Grundlage der Differenz zwischen dem zweiten Funktionswert und dem ersten Funktionswert berechnet. Während der optische Sensor 50 dem zu folgenden Ziel 102 folgt, wird ferner die Berechnung der Bewegungsanweisung und der Bewegung des Arms auf der Grundlage der Bewegungsanweisung wiederholt. Aufgrund dessen kann die relative Position und relative Ausrichtung der Hand 30 in Bezug auf den durch die Transfereinrichtung 2 weitergeleiteten Artikel 100 allmählich bewegt werden, um näher an den Zieldaten zu sein. Dies ist nützlich, um die Bewegung des Arms 10a des Roboters 10 zu veranlassen, dem durch die Transfereinrichtung 2 weitergeleiteten Artikel 100 genau zu folgen.
  • Bei dieser Ausführungsform ist ferner das Modell des zu folgenden Ziels 102 als der erste Funktionswert gespeichert. Falls der Funktionsabschnitt des Artikels 100 das zu folgende Ziel 102 ist, kann die Steuereinheit 21 die Position und Ausrichtung (zweiter Funktionswert) des Funktionsabschnitts in den Bilddaten erzielen, indem eine Übereinstimmungssuche zwischen dem Funktionsabschnitt in den durch den optischen Sensor 50 erzielten Bilddaten und dem projektiven Transformationsmodell durchgeführt wird. Diese Funktion ist nützlich, um die relative Position und relative Ausrichtung des optischen Sensors 50 in Bezug auf das zu folgende Ziel 102 des durch die Transfereinrichtung 2 weitergeleiteten Artikels 100 zu veranlassen, näher an die Zieldaten präzise gebracht zu werden. Es sollte festgestellt werden, dass der Funktionsabschnitt eine auf der Oberfläche des Artikels 100 vorgesehene Figur sein kann.
  • Bei dieser Ausführungsform wird ferner die Bewegungsanweisung unter Verwendung von zumindest der Optimalwertsteuerung angepasst. Gemäß diesem Merkmal wird eine Steuerung eingesetzt, die die Bewegungstendenz oder dergleichen des Artikels 100 durch die Transfereinrichtung 2 durch die Optimalwertsteuerung berücksichtigt, was nützlich ist, wenn die relativen Positionen und relativen Ausrichtungen des optischen Sensors 50 in Bezug auf das zu folgende Ziel 102 des Artikels 100 veranlasst werden, schnell und präzise näher an die Zieldaten gebracht zu werden.
  • Auch bei dieser Ausführungsform berechnet die Steuereinheit 21 eine vorbereitende Bewegungsanweisung, um das zu folgende Ziel 102 unter Verwendung der durch den optischen Sensor 50 oder einen anderen Sensor 40 erzielten Daten in die Erkennungszone des optischen Sensors 50 zu bringen, bevor die Erkennung des zweiten Funktionswerts durchgeführt wird. Als Folge davon wird der optische Sensor 50 an der für das Folgen in einem kurzen Zeitraum notwendigen Position angeordnet, bevor die Folgesteuerung des Arms 10a durchgeführt wird.
  • Ferner umfasst das Roboterarbeitssystem dieser Ausführungsform die Transfereinrichtung 2 und den Roboter 10 und der Roboter 10 führt die vorgegebene Aufgabe an dem Artikel 100 in einem Zustand durch, in dem der an dem Roboter 10 vorgesehene optische Sensor 50 dem zu folgenden Ziel 102 folgt. Alternativ führt bei dem Roboterarbeitssystem dieser Ausführungsform der Arbeitsroboter 60 die vorgegebene Aufgabe an dem Artikel 100 durch, während er die Information der Bewegungsanweisung, um den an dem Roboter 10 vorgesehenen optischen Sensor 50 zu veranlassen, dem zu folgenden Ziel 102 zu folgen, oder die Information verwendet, die bei der Berechnung der Bewegungsanweisung verwendet worden ist. Wenn der Arbeitsroboter 60 verwendet wird, ist es möglich, die vorgegebene Aufgabe an dem Artikel 100 an einem von dem optischen Sensor 50 entfernten Ort durchzuführen. Es sollte festgestellt werden, dass eine Mehrzahl von Arbeitsrobotern 60 die vorgegebene Aufgabe an dem Artikel 100 unter Verwendung der vorstehend genannten Information durchführen kann.
  • Das Roboterarbeitssystem dieser Ausführungsform umfasst ferner den Kraftsensor 32, der die durch den Kontakt des durch den Roboter 10 oder die Hand 30 gehaltenen Bauteils 110 mit dem Artikel 100 erzeugte Kraft und die durch den Kontakt des durch den Arbeitsroboter 60 oder die Hand 30 gehaltenen Bauteils 110 mit dem Artikel 100 erzeugte Kraft erkennt. Die Steuerung 20, 70 des Roboters 10 oder des Arbeitsroboters 60 veranlasst ferner den Roboter 10 oder die an dem Arbeitsroboter 60 vorgesehene Hand 30, dem Artikel auch unter Verwendung des Erkennungswerts des Kraftsensors 32 zu folgen, wenn die vorgegebene Aufgabe durchgeführt wird.
  • Da der Erkennungswert des Kraftsensors 32 auch bei der Folgesteuerung verwendet wird, kann die Genauigkeit der Folgesteuerung weiter verbessert werden. In einigen Fällen kann es hier schwierig sein, die Übereinstimmung zwischen der relativen Ausrichtung der Hand 30 in Bezug auf den Artikel 100 und dem Erkennungswert des Kraftsensors 32 zu gewährleisten, jedoch wird die relative Ausrichtung bei dieser Ausführungsform korrigiert, so dass die Genauigkeit der Folgesteuerung effektiv verbessert wird.
  • Gemäß dem Roboterarbeitssystem dieser Ausführungsform führt ferner zumindest eine der Steuerungen 20, 70 des Roboters 10 oder des Arbeitsroboters 60 die vorgegebene Aufgabe durch und führt die Transfereinrichtung 2 die Anomalie-Reaktionsmaßnahme durch, wenn der zweite Funktionswert über ein vorgegebenes Kriterium hinaus variiert. Als Folge davon kann eine Beschädigung des Roboters 10, 60, des Artikels 100 und des Bauteils 110 effektiv verhindert werden, während die Folgesteuerung durchgeführt wird.
  • Gemäß dem Roboterarbeitssystem dieser Ausführungsform stellt ferner das zu folgende Ziel 102 einen Teil des Artikels 100 dar. Gemäß diesem Merkmal ist die Position des zu folgenden Ziels 102 an dem Artikel 100 fest, was nützlich ist, um die Genauigkeit der Folgesteuerung weiter zu verbessern.
  • Ferner kann ein Bearbeitungswerkzeug durch das abgelegene Ende des Roboters 10 oder des Arbeitsroboters 60 gehalten werden und der Roboter 10 oder der Arbeitsroboter 60 kann als die vorgegebene Aufgabe eine Bearbeitung an dem durch die Transfereinrichtung 2 weitergeleiteten Artikel 100 durchführen. In diesem Fall kann das Bearbeitungswerkzeug Bohrer, Fräser, Gewindebohrer, Entgratwerkzeuge, andere Werkzeuge usw. sein. In diesem Fall wird auch in Schritt S1-2 das Bearbeitungswerkzeug dicht an den Arbeitszielabschnitt 101 bewegt, wird die vorstehend genannte Folgesteuerung durchgeführt und wird die Kraftsteuerung gemäß dem Kontakt zwischen dem Zerspanungswerkzeug und dem Arbeitszielabschnitt 101 durchgeführt und können dadurch ähnliche Effekte, wie sie vorstehend beschrieben wurden, gewonnen werden. Das Bearbeitungswerkzeug kann ferner Schweißzangen, Schweißbrenner usw. sein.
  • Es ist auch möglich, als die Transfereinrichtung 2 eine Transfereinrichtung zu verwenden, die den Artikel 100 entlang einer gekrümmten Strecke weiterleitet, oder eine Transfereinrichtung, die den Artikel 100 entlang einer gewundenen Strecke weiterleitet. Auch in diesen Fällen kann die Steuereinheit 21 das abgelegene Ende des Roboters 10 oder des Arbeitsroboters 60 veranlassen, dem Arbeitszielabschnitt 101 unter Verwendung des Erkennungsergebnisses des optischen Sensors 50 zu folgen. Wenn die Position des Arbeitszielabschnitts 101 in Bezug auf den Roboter 10 über das vorgegebene Kriterium in dem Schritt S1-6 hinaus variiert, kann die Steuereinheit 21 die erste Anomalie-Reaktionsmaßnahme in Schritt S1-7 durchführen. Aufgrund dessen können selbst in einem Fall, bei dem die vorstehend genannte Transfereinrichtung verwendet wird, ähnliche Effekte, wie sie vorstehend beschrieben wurden, gewonnen werden.
  • Anstelle der Transfereinrichtung 2 kann ferner ein anderer Roboter, ein AGV („Automated Guided Vehicule“, fahrerloses Transportfahrzeug) den Artikel 100 bewegen. In diesem Fall können auch ein ähnlicher Betrieb und ähnliche Effekte, wie sie vorstehend beschrieben wurden, gewonnen werden. Falls der Artikel 100 ein Automobil, ein Gestell eines Automobils oder dergleichen ist, kann darüber hinaus der Artikel 100, an dem die vorgegebene Aufgabe durchgeführt wird, durch dessen Motor, dessen Räder oder dergleichen bewegt werden. In diesen Fällen fungieren der andere Roboter, der Motor, die Räder und dergleichen als die Transfereinrichtung.
  • Anstelle der Transfereinrichtung 2 kann ferner eine Rutsche verwendet werden, um den Artikel 100 weiterzuleiten, auf der der Artikel 100 nach unten gleitet, nach unten rollt, oder durch die Schwerkraft auf der Rutsche fällt. In diesem Fall kann die abfallende Rutsche durch eine beliebige schwingungserzeugende Einrichtung zum Schwingen gebracht werden, wodurch die Bewegung des Artikels 100 auf der Rutsche gleichmäßiger erfolgt. In diesen Fällen fungiert die Rutsche, die schwingungserzeugende Einrichtung oder dergleichen als die Transfereinrichtung und wird der Artikel 100, der durch die Rutsche bewegt wird, durch das an dem Roboter 30 befestigte Werkzeug gegriffen.
  • Bei dieser Ausführungsform ist der Kraftsensor 32 am abgelegenen Ende des Roboters 10 oder des Arbeitsroboters 60 befestigt. Andererseits ist es auch möglich, den Kraftsensor 32 zum Beispiel zwischen der Transfereinrichtung 2 und dem Artikel 100 oder innerhalb des Artikels 100 oder dergleichen anzuordnen. In diesem Fall kann die Kraftsteuerung auf der Grundlage des Erkennungswerts des Kraftsensors 32 durchgeführt werden und können ähnliche Effekte, wie sie vorstehend beschrieben wurden, dadurch gewonnen werden.
  • Der optische Sensor 50 kann ferner an einem anderen Teil des Roboters 10 oder des Arbeitsroboters 60 als dem Handgelenkflansch befestigt sein.
  • Es sollte festgestellt werden, dass der optische Sensor 50 eine Stereokamera sein kann. In diesem Fall ist es möglich, Abstandsbilddaten des zu folgenden Ziels 102 mittels eines Paares Kameras zu erzielen, und werden die Position und Ausrichtung des zu folgenden Ziels 102 unter Verwendung der Bilddaten und des entsprechenden dreidimensionalen Modells identifiziert.
  • Während das durch den optischen Sensor 50 zu folgende Ziel von dem Arbeitsziel des Roboters 10 bei dieser Ausführungsform verschieden ist, kann das durch den optischen Sensor 50 zu folgende Ziel gleich dem Arbeitsziel des Roboters 10 sein. In einem Fall zum Beispiel, bei dem leichte Positionsabweichungen zwischen dem Werkzeug des Roboters 10 und dem Arbeitsziel zulässig sind, falls das zu folgende Ziel während der Aufgabe durch das Werkzeug immer durch den optischen Sensor 50 gesehen werden, oder in anderen ähnlichen Fällen, kann das zu folgende Ziel und das Arbeitsziel dann als ein und dasselbe Ziel gehandhabt werden.
  • Es sollte festgestellt werden, dass bei der vorstehend beschriebenen Ausführungsform die Position, Ausrichtung und Größe des zu folgenden Ziels 102 an der Zielposition auf den Bilddaten des optischen Sensors 50 angeordnet sind und dadurch die Position und Ausrichtung der Hand 30, die ein Werkzeug ist, an der für die vorgegebene Aufgabe an dem Artikel 100 notwendigen Position und Ausrichtung angeordnet sind. Im Gegensatz dazu können die Position und Ausrichtung des zu folgenden Ziels 102 an der Zielposition auf den Bilddaten des optischen Sensors 50 angeordnet sein und dadurch können die Position und Ausrichtung des an dem Roboter 10 befestigten Werkzeugs an der für die vorgegebene Aufgabe notwendigen Position und Ausrichtung angeordnet sein. Im Falle einer Aufgabe zum Beispiel, bei der sich der Abstand zwischen dem Werkzeug und dem Artikel kaum ändert, wie beispielsweise Laserschweißen, Laserbearbeitung, Auftragen von Dichtmittel und dergleichen, einem Fall, bei dem die beabsichtigte Aufgabe ausgeführt werden kann, selbst wenn sich der Abstand zwischen dem Werkzeug und dem Artikel ändert, und in anderen einschlägigen Fällen müssen die Größeninformation als der erste Funktionswert und die Größeninformation als der zweite Funktionswert nicht verwendet werden.
  • Bezugszeichenliste
  • 1
    Roboterarbeitssystem
    2
    Transfereinrichtung
    2a
    Motor
    3
    Rolle
    10
    Roboter (Folgeroboter)
    11
    Servomotor
    20
    Steuerung
    21
    Steuereinheit
    22
    Anzeigeeinrichtung
    23
    Speichereinheit
    23a
    Systemprogramm
    23b
    Tätigkeitsprogramm
    23c
    Folgesteuerprogramm (Bewegungsanweisungsmittel)
    23d
    Kraftsteuerprogramm
    23e
    Funktionswerterkennungsprogramm (Funktionswerterken nu ngsm ittel)
    23f
    Bewegungsbetragberechnungsprogramm (Bewegungsbetragberechnungsmittel)
    24
    Servosteuerung
    25
    Servosteuerung
    26
    Eingabeeinheit
    30
    Hand
    31
    Servomotor
    32
    Kraftsensor (Krafterkennungsmittel)
    40
    Erkennungseinrichtung
    50
    optischer Sensor
    100
    Artikel
    101
    Arbeitszielabschnitt
    101a
    Loch
    102
    zu folgendes Ziel
    110
    Bauteil
    111
    Montageabschnitt
    111a
    Zapfen

Claims (9)

  1. Folgeroboter, umfassend: einen beweglichen Arm; einen oder mehrere an dem Arm vorgesehene optische Sensoren; eine Speichereinheit, die einen ersten Funktionswert hinsichtlich mindestens einer Position und einer Ausrichtung eines zu folgenden Ziels speichert, wobei der erste Funktionswert als Zieldaten gespeichert wird, um die an dem Arm vorgesehenen optischen Sensoren zu veranlassen, dem zu folgenden Ziel zu folgen; eine Funktionswerterfassungseinheit, die einen zweiten Funktionswert hinsichtlich mindestens einer aktuellen Position und eine aktuelle Ausrichtung des zu folgenden Ziels erkennt, wobei der zweite Funktionswert unter Verwendung eines durch die optischen Sensoren erzielten Bildes erkannt wird; eine Bewegungsbetragberechnungseinheit, die eine Bewegungsanweisung für den Arm auf der Grundlage einer Differenz zwischen dem zweiten Funktionswert und dem ersten Funktionswert berechnet; und eine Bewegungsanweisungseinheit, die den Arm auf der Grundlage der Bewegungsanweisung bewegt, wobei die Bewegungsbetragberechnungseinheit und die Bewegungsanweisungseinheit die Berechnung der Bewegungsanweisung und Bewegung des Arms auf der Grundlage der Bewegungsanweisung wiederholen, während der optische Sensor veranlasst wird, dem zu folgenden Ziel zu folgen, wobei die Bewegungsanweisung eine Anweisung ist, die eine Differenz zwischen der Ausrichtung des zu folgenden Ziels als der zweite Funktionswert und der Ausrichtung des zu folgenden Ziels als der erste Funktionswert verringert oder beseitigt.
  2. Folgeroboter nach Anspruch 1, wobei die Bewegungsbetragberechnungseinheit die Bewegungsanweisung unter Verwendung von zumindest Optimalwertsteuerung anpasst.
  3. Folgeroboter nach Anspruch 1 oder 2, wobei die Bewegungsbetragberechnungseinheit die Bewegungsanweisung auf der Grundlage eines gemäß einer mechanischen Eigenschaft des Arms definierten Parameters anpasst
  4. Folgeroboter nach einem der Ansprüche 1 bis 3, wobei eine Steuereinheit eine vorbereitende Bewegungsanweisung unter Verwendung der durch den optischen Sensor oder einen anderen Sensor erzielten Daten berechnet, bevor eine Erkennung des zweiten Funktionswerts durchgeführt wird, wobei die vorbereitende Bewegungsanweisung eine Anweisung ist, damit das zu folgende Ziel in einen vorgegebenen Bereich in einer Erfassungszone des optischen Sensors oder in die Erfassungszone gelangt; und die Bewegungsanweisungseinheit den Arm auf der Grundlage der vorbereitenden Bewegungsanweisung vor einem Folgebetrieb bewegt, um den Arm zu veranlassen, dem zu folgenden Ziel zu folgen.
  5. Folgeroboter nach einem der Ansprüche 1 bis 4, wobei die Funktionswerterkennungseinheit eine Erkennungsverarbeitung in weitem Bereich durchführt, um den zweiten Funktionswert in einem ersten Bereich in durch den optischen Sensor erzielten Bilddaten zu erkennen, und anschließend eine Erkennungsverarbeitung in engem Bereich durchführt, um den zweiten Funktionswert in einem zweiten Bereich zu erkennen, der enger als der erste Bereich in durch den optischen Sensor erzielten Bildern ist.
  6. Roboterarbeitssystem, umfassend: eine Transfereinrichtung, die einen Artikel weiterleitet; und den Folgeroboter nach einem der Ansprüche 1 bis 5, wobei in einem Zustand, in dem der optische Sensor des Folgeroboters dem zu folgenden Ziel folgt, der Folgeroboter eine vorgegebene Aufgabe an dem Artikel durchführt, oder ein Arbeitsroboter, der ein anderer Roboter ist, die vorgegebene Aufgabe an dem Artikel unter Verwendung von Information der Bewegungsanweisung, um den optischen Sensor des Folgeroboters zu veranlassen, dem zu folgenden Ziel zu folgen, oder Information, die bei der Berechnung der Bewegungsanweisung verwendet wird, durchzuführen.
  7. Roboterarbeitssystem nach Anspruch 6, ferner umfassend einen Kraftdetektor, der eine Kraft, die erzeugt wird, wenn ein durch den die vorgegebene Aufgabe durchführender Folgeroboter gehaltenes Teil oder Werkzeug mit dem Artikel in Kontakt gebracht wird, oder eine Kraft erkennt, die erzeugt wird, wenn ein durch den Arbeitsroboter gehaltenes Teil oder Werkzeug mit dem Artikel in Kontakt gebracht wird, und eine Steuerung des die vorgegebene Aufgabe durchführenden Folgeroboters oder Arbeitsroboters den Folgeroboter oder Arbeitsroboter veranlasst, dem Artikel zu folgen, wenn die vorgegebene Aufgabe unter Verwendung eines erkannten Werts des Kraftdetektors durchgeführt wird.
  8. Roboterarbeitssystem nach Anspruch 6 oder 7, wobei mindestens eine der Steuerungen des Folgeroboters oder des Arbeitsroboters die vorgegebene Aufgabe durchführt und die Transfereinrichtung eine Anomalie-Reaktionsmaßnahme durchführt, wenn der zweite Funktionswert über ein vorgegebenes Kriterium hinaus variiert.
  9. Roboterarbeitssystem nach einem der Ansprüche 6 bis 8, wobei das zu folgende Ziel Teil des Artikels ist.
DE102020100803.1A 2019-01-24 2020-01-15 Folgeroboter und Roboterarbeitssystem Active DE102020100803B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-010335 2019-01-24
JP2019010335A JP7000361B2 (ja) 2019-01-24 2019-01-24 追随ロボットおよび作業ロボットシステム

Publications (2)

Publication Number Publication Date
DE102020100803A1 true DE102020100803A1 (de) 2020-07-30
DE102020100803B4 DE102020100803B4 (de) 2023-07-06

Family

ID=71524277

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020100803.1A Active DE102020100803B4 (de) 2019-01-24 2020-01-15 Folgeroboter und Roboterarbeitssystem

Country Status (4)

Country Link
US (1) US11230005B2 (de)
JP (1) JP7000361B2 (de)
CN (1) CN111470309B (de)
DE (1) DE102020100803B4 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11312015B2 (en) * 2018-09-10 2022-04-26 Reliabotics LLC System and method for controlling the contact pressure applied by an articulated robotic arm to a working surface
JP7314871B2 (ja) * 2020-07-09 2023-07-26 新東工業株式会社 強度計測装置及び強度計測方法
DE112021007326T5 (de) * 2021-05-27 2024-02-29 Fanuc Corporation Abbildungsvorrichtung zur berechnung der dreidimensionalen lage auf der grundlage eines von einem bildsensor aufgenommenen bildes
CN116022398B (zh) * 2023-03-27 2023-07-21 起元汇科(福建)机器人有限公司 一种医用纱布自动化包装设备及方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163946A (en) 1981-05-11 2000-12-26 Great Lakes Intellectual Property Vision target based assembly
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
JPH0872764A (ja) 1994-09-01 1996-03-19 Mazda Motor Corp 生産ライン制御装置
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
JP3749815B2 (ja) 2000-03-23 2006-03-01 株式会社東芝 撮像素子およびこの撮像素子を組込んだ撮像システム
JP2003211381A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP3751309B2 (ja) * 2002-12-12 2006-03-01 松下電器産業株式会社 ロボット制御装置
JP4612280B2 (ja) * 2003-02-25 2011-01-12 本田技研工業株式会社 自動作業装置及び自動作業装置制御プログラム
JP3876234B2 (ja) * 2003-06-17 2007-01-31 ファナック株式会社 コネクタ把持装置、同装置を備えたコネクタ検査システム及びコネクタ接続システム
JP2007112565A (ja) * 2005-10-20 2007-05-10 Yokogawa Electric Corp 駆動系診断装置
JP2007218687A (ja) 2006-02-15 2007-08-30 Yaskawa Information Systems Co Ltd 画像センサ追従装置とそのプログラム
JP2007265343A (ja) 2006-03-30 2007-10-11 Tottori Univ 移動物体の追従装置及び同装置を備えた電動車椅子
US8655429B2 (en) * 2007-06-29 2014-02-18 Accuray Incorporated Robotic arm for a radiation treatment system
US9333654B2 (en) * 2008-03-31 2016-05-10 Abb Research Ltd. Robot parts assembly on a workpiece moving on an assembly line
JP2010131685A (ja) * 2008-12-03 2010-06-17 Seiko Epson Corp ロボット装置および撮像方法
JP5508895B2 (ja) * 2010-02-22 2014-06-04 本田技研工業株式会社 加工システム及び加工方法
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP5803124B2 (ja) * 2011-02-10 2015-11-04 セイコーエプソン株式会社 ロボット、位置検出装置、位置検出プログラム、および位置検出方法
WO2013073683A1 (ja) * 2011-11-16 2013-05-23 日産自動車株式会社 接合体の製造方法およびその製造装置
JP6014484B2 (ja) 2012-12-21 2016-10-25 セコム株式会社 自律移動ロボット
US9043146B2 (en) 2013-06-19 2015-05-26 The Boeing Company Systems and methods for tracking location of movable target object
CN105916636B (zh) * 2013-10-11 2019-08-06 睿信科机器人有限公司 高精度的机器人安放和操纵
JP6642968B2 (ja) 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN105313127A (zh) * 2014-06-02 2016-02-10 精工爱普生株式会社 机器人、机器人的控制方法以及机器人的控制装置
US10272568B2 (en) * 2015-09-17 2019-04-30 Canon Kabushiki Kaisha Robot apparatus, robot controlling method, program, recording medium, and assembly manufacturing method
JP6430986B2 (ja) 2016-03-25 2018-11-28 ファナック株式会社 ロボットを用いた位置決め装置
CN106671104A (zh) * 2017-01-11 2017-05-17 河北省自动化研究所 用于大型精密机械设备零件的双反馈机械臂自动装卸装置
JP6496353B2 (ja) 2017-05-18 2019-04-03 ファナック株式会社 ロボットシステム
US10521871B2 (en) * 2017-07-12 2019-12-31 Fanuc Corporation Robot system

Also Published As

Publication number Publication date
DE102020100803B4 (de) 2023-07-06
JP2020116687A (ja) 2020-08-06
CN111470309A (zh) 2020-07-31
JP7000361B2 (ja) 2022-01-19
US11230005B2 (en) 2022-01-25
CN111470309B (zh) 2023-07-14
US20200238518A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
DE102020100803A1 (de) Folgeroboter und Roboterarbeitssystem
DE102018124712B4 (de) Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102012104194B4 (de) Roboter und Punktschweissroboter mit lernender Steuerungsfunktion
DE102015002193B4 (de) Schweissbrennerdetektor und Schweissrobotersystem
EP2698234B1 (de) Vorrichtung und verfahren zum automatisierten entnehmen von in einem behälter angeordneten werkstücken
DE102017110035A1 (de) Werkzeugmaschine
DE102019102859B4 (de) Arbeitsrobotersystem
DE102020130635A1 (de) Automatisiertes geführtes Robotersystem
EP2000872B1 (de) Industrieroboter und Verfahren zum Programmieren eines Industrieroboters
DE19615069A1 (de) Verfahren und Vorrichtung zum Nachführen von Werkzeugen mittels Kantenverfolgung
DE102018007842B4 (de) Steuergerät zum Überwachen der Bewegungsrichtung eines Betätigungswerkzeugs
DE102019101756B4 (de) Arbeitsrobotersystem
DE102017111915A1 (de) Werkzeugmaschine
EP3037905B1 (de) Vorrichtung und verfahren zum aufnehmen von positionen
DE102020113098A1 (de) Werkstück-drehvorrichtung und robotersystem
DE102018114445B4 (de) Vorrichtung und Verfahren zur Einschätzung einer Position des Schwerpunkts eines Roboters
DE102018129166A1 (de) Roboter und Robotersystem
DE102020107385B4 (de) Betriebseinstellvorrichtung zum einstellen des betriebs einer robotervorrichtung
DE102019109717A1 (de) Arbeitsrobotersystem und Arbeitsroboter
DE102019109718B4 (de) Arbeitsrobotersystem und Arbeitsroboter
DE102020003517A1 (de) Überwachungsvorrichtung, die mit einer Kamera zum Erfassen eines bewegten Bildes einer Bewegung der Robotervorrichtung ausgestattet ist
EP2082852B1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulators
DE112021001173T5 (de) Entgratungsvorrichtung und Steuerungssystem
DE102019126435B4 (de) Werkzeugmaschine

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final