DE69736348T2 - Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten - Google Patents

Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten Download PDF

Info

Publication number
DE69736348T2
DE69736348T2 DE69736348T DE69736348T DE69736348T2 DE 69736348 T2 DE69736348 T2 DE 69736348T2 DE 69736348 T DE69736348 T DE 69736348T DE 69736348 T DE69736348 T DE 69736348T DE 69736348 T2 DE69736348 T2 DE 69736348T2
Authority
DE
Germany
Prior art keywords
workpiece
robot
orientation
values
installation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Revoked
Application number
DE69736348T
Other languages
English (en)
Other versions
DE69736348D1 (de
Inventor
Ryuichi Hara
Room 8-310 Fanuc Manshonharimomi Kazunori BAN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=17870106&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69736348(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE69736348D1 publication Critical patent/DE69736348D1/de
Application granted granted Critical
Publication of DE69736348T2 publication Critical patent/DE69736348T2/de
Anticipated expiration legal-status Critical
Revoked legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37048Split beam, stripe projection on object, lines detected with cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39319Force control, force as reference, active compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/53Means to assemble or disassemble
    • Y10T29/53039Means to assemble or disassemble with control means energized in response to activator stimulated by condition sensor
    • Y10T29/53061Responsive to work or work-related machine element
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/53Means to assemble or disassemble
    • Y10T29/53039Means to assemble or disassemble with control means energized in response to activator stimulated by condition sensor
    • Y10T29/53061Responsive to work or work-related machine element
    • Y10T29/53078Responsive to work or work-related machine element with means to fasten by frictional fitting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/53Means to assemble or disassemble
    • Y10T29/53087Means to assemble or disassemble with signal, scale, illuminator, or optical viewer

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

  • Die Erfindung betrifft die Technologie der Automatisierung eines Einbauvorgangs, der bei einem Verfahren für den Zusammenbau von Teilen und dergleichen erforderlich ist, und insbesondere ein kraftgesteuertes Robotersystem mit einem Optiksensor, bei dem die Funktion des Optiksensors vor und nach dem Einbauschritt des kraftgesteuerten Roboters verwendet wird.
  • Der Einbauvorgang ist einer der grundlegenden Vorgänge bei den meisten Montageverfahren, und die Automatisierung des Einbauvorgangs mit einem Roboter wird bereits ausgeführt. Bei dem Einbauvorgang mit einem Roboter wird ein Werkstück (Einbau-Werkstück) von einem Roboter gehalten und in einen bestimmten Abschnitt (gewöhnlich einen konkaven Abschnitt) des anderen Werkstücks (Aufnahme-Werkstück) eingebaut. Ein kraftgesteuerter Roboter wird oft als Roboter zum Halten des Einbau-Werkstücks eingesetzt.
  • Ein kraftgesteuerter Roboter wird vorzugsweise für den Einbauvorgang eingesetzt, da er Schwankungen der relativen Position und Orientierung zwischen einem Einbau-Werkstück und einem Aufnahme-Werkstück absorbiert und die Kraft oder das Moment, die bzw. das zwischen den Werkstücken bei festgelegten Bedingungen wirkt, steuert. Selbst wenn der kraftgesteuerte Roboter zur Automatisierung des Einbauvorgangs verwendet wird, müssen die folgenden Punkte (1) und (2) zur Durchführung des Einbauvorgangs mit hoher Verlässlichkeit durchgeführt werden.
  • (1) Bestimmung der relativen Position und Orientierung zwischen einem Einbau-Werkstück und einem Aufnahme-Werkstück (beispielsweise Montageteile).
  • Gewöhnlich erfolgt der Einbauvorgang mit einem kraftgesteuerten Roboter über die Schritte (i) Halten eines Einbauwerkstücks, das in einer festgelegten Halteposition positioniert ist, durch eine an einem Kraftsensor befestigten Roboterhand, (ii) Bewegen des Roboters zu einer festgelegten Annäherungsposition (einer Einbaustartposition) und Positionieren an Ort und Stelle, (iii) Veranlassen, dass der Roboter einen kraftgesteuerten Einbauschritt durchführt, und (iv) Lösen des Einbauwerkstücks durch die Roboterhand und Veranlassen, dass sich der Roboter zurückzieht.
  • Die relative Position und die Orientierung zwischen dem Einbau-Werkstück und dem Aufnahme-Werkstück nach der Beendigung des Annäherungsschritts in Schritt (ii) ist wichtig. Eignet sich zu diesem Zeitpunkt die relative Position und die Orientierung zwischen den Werkstücken nicht zum Starten des Einbauschrittes, ist es schwierig, den Einbauschritt glatt in Schritt (iii) durchzuführen. Sind insbesondere ein Einbauabschnitt (konvexer Abschnitt) des Einbau-Werkstücks und ein Aufnahmeabschnitt (konkaver Abschnitt) des Aufnahme-Werkstücks in Größe und Form in einer festen Beziehung, muss die relative Position und Orientierung zu einem hohen Grad eingestellt werden. Ist zudem der Haltezustand des Werkstücks in Schritt (i) (die Position und Orientierung des Werkstücks zur Roboterhand, die am Kraftsensor fixiert ist) nicht normal, sinkt die Leistung der Kraftsteuerung auf der Grundlage des Ausgangs des Kraftsensors, so dass der Einbauschritt nicht glatt durchgeführt wird.
  • Im Stand der Technik werden die folgenden Maßnahmen gegen die vorstehenden Probleme ergriffen:
    • a) Verwendung einer Schablone zum sehr genauen Positionieren eines Aufnahme-Werkstücks.
    • b) Verwendung einer Hand (Endeffektor), die ein Einbau-Werkstück regelmäßig mit hoher Reproduzierbarkeit halten kann.
    • c) Korrektur der Position und Orientierung eines Roboters mit einem Optiksensor.
  • Selbst wenn die vorstehende Maßnahme a) eingesetzt wird, kann ein Werkstück nicht mit hoher Genauigkeit positioniert werden, wenn das Werkstück eine Guss-Oberfläche mit niedriger Formgenauigkeit hat. Selbst wenn zudem die vorstehende Maßnahme b) eingesetzt wird, wird ein Einbau-Werkstück angemessen mit einer ungenauen Orientierung gehalten, wenn die Formungsgenauigkeit des Werkstücks niedrig ist. Die vorstehende Maßnahme c) der Korrektur von Position und Orientierung eines Roboters mit einem Optiksensor ist als allgemeine Technik bekannt. Es gibt jedoch keine solche Technik, die die relative Position bzw. Orientierung zwischen einem von einem Roboter gehaltenen Gegenstand und einem Gegenstand, der sich abseits vom Roboter befindet, erfasst, und die die Einstellung der relativen Position bzw. Orientierung der Gegenstände vor einem kraftgesteuerten Einbauschritt gewährleistet, der eine äußerst genaue Positionierung erfordert.
  • (2) Bestätigung des Einbauschritts nach erfolgter Durchführung.
  • Selbst wenn die Arbeitsgenauigkeit vergrößert wird, indem die Maßnahmen a) bis c) ergriffen werden, ist es nahezu unmöglich, dass das Vorkommen eines anormalen Einbauschritts perfekt verhindert wird. Daher muss zur Steigerung der Systemverlässlichkeit festgestellt werden, ob ein Einbauschritt normal erfolgte oder nicht.
  • Die Feststellung bezüglich der Normalität bzw. Anomalie des Einbauschritts erfolgt im Stand der Technik anhand von Daten, wie des Ausgangs des Kraftsensors, eines Drehmomentausgangs jeder Achse, eines Bewegungsmaßes einer Roboterhandspitze, die durch Ausgänge von Impulscodierern der jeweiligen Achsen während des Einbauschritts indirekt erhalten werden. Zeigt beispielsweise ein Kraftsensorausgang oder ein Drehmomentausgang jeder Achse während des Einbauschritts einen anormalen Wert, wird festgestellt, dass ein Einbau-Werkstück eine große Reaktionskraft, die einen Normalwert übersteigt, von einem Aufnahme-Werkstück erfährt, und ist ein Bewegungsmaß einer Roboterhandspitze nach dem Start des Einbaus kleiner als eine festgelegte Einbaulänge, wird festgestellt, dass eine Behinderung während des Einbauschritts erfolgte.
  • Das Feststellungsverfahren, das einen Kraftsensorausgang und einen Drehmomentausgang für jede Achse während eines Einbauschritts verwendet, ist bloß ein indirektes Verfahren, so dass es nicht vollständig sicher ist. Wird beispielsweise der Haltezustand eines Einbauwerkstücks durch eine Reaktionskraft von einem Aufnahme-Werkstück beeinträchtigt und weicht dieser von einem normalen Zustand ab, so dass ein Einbau unzureichend erfolgt, kann es als "normal" festgestellt werden.
  • Bei dem Verfahren zur Erfassung eines Bewegungsmaßes einer Handspitze von Ausgängen der Impulscodierer der jeweiligen Achsen ist die korrekte Feststellung, ob der Einbau einer beabsichtigten Insertionslänge tatsächlich erfolgt ist, schwierig, da ein Erfassungsfehler aufgrund von elastischen Verformungen der jeweiligen mechanischen Teile eines Roboters durch eine Reaktionskraft von einem Aufnahmewerkstück nicht vernachlässigbar ist.
  • Ein Beispiel für ein bekanntes kraftgesteuertes Robotersystem zur Durchführung eines Einbauvorgangs in ein zweites Werkstück gemäß dem Oberbegriff des beigefügten Anspruchs 1 ist in US-A-5 181 823 offenbart. In diesem Dokument wird der Einbau eines ersten Werkstücks in ein zweites Werkstück sowohl in Abhängigkeit von den Kräften, die zwischen den beiden Werkstücken ausgeübt werden, als auch von einem Optiksensor gesteuert, der an dem mechanischen Arm eines Roboters angeschlossen ist, der das erste Werkstück bewegt, wobei der Optiksensor auf ein Ziel zielt, das an dem zweiten Werkstück angeschlossen ist.
  • Ein weiteres Beispiel des Standes der Technik wird in US-A-5 148 591 bereitgestellt, das ein Robotersystem zur Durchführung eines Vorgangs zum Einbau eines ersten Werkstücks in ein zweites Werkstück offenbart, wobei ein Optiksensor, aber keine Kraftsteuerung verwendet wird.
  • Eine Aufgabe der Erfindung ist die Bereitstellung eines kraftgesteuerten Robotersystems, das die relative Position und Orientierung zwischen einem Einbau-Werkstück und einem Aufnahme-Werkstück vor einer kraftgesteuerten Einbauwirkung einstellen kann, so dass man den Einbauschritt glatt durchführen kann. Eine Entwicklung der Erfindung stellt ein kraftgesteuertes Robotersystem bereit, das sofort feststellen kann, ob der Einbauschritt normal durchgeführt wurde oder nicht, wobei eine Funktion des Optiksensors nach dem Einbauschritt verwendet wird.
  • Ein erfindungsgemäßes kraftgesteuertes Robotersystem hat einen Roboter mit einer Roboterhand zum Halten eines ersten Werkstücks und einen Kraftsensor zum Erfassen einer Kraft, die auf das von der Roboterhand gehaltene erste Werkstück ausgeübt wird, einen Optiksensor zum Gewinnen von Bilddaten, mit denen man eine relative Position bzw. Orientierung zwischen dem ersten Werkstück und einem zweiten Werkstück erhalten kann, sowie eine Steuervorrichtung zum Steuern des Roboters und des Optiksensors.
  • Die Steuervorrichtung umfasst eine Vorrichtung zum Durchführen des Einbauschritts, welche bewirkt, dass sich das von der Roboterhand gehaltene erste Werkstück dem zweiten Werkstück nähert und dass der Einbauschritt unter der Kraftsteuerung auf der Basis eines Ausgangs von dem Kraftsensor durchgeführt wird, sowie eine Korrekturvorrichtung zur Gewinnung der Werkstück-Positions- bzw. Orientierungsdaten, die die relative Position bzw. Orientierung zwischen dem ersten Werkstück und dem zweiten Werkstück auf der Basis der durch den Optiksensor erhaltenen Bilddaten veranschaulichen, und zum Korrigieren der Position und der Orientierung des Roboters auf der Basis der erhaltenen Werkstück-Positions- bzw. Orientierungsdaten, vor dem Einbauschritt.
  • Die Steuervorrichtung kann zudem eine Feststellungsvorrichtung zum Gewinnen von Daten bezüglich des Einbauzustands umfassen, die den Einbauzustand des ersten Werkstücks in dem zweiten Werkstück auf der Basis der Bilddaten des ersten und zweiten Werkstücks veranschaulichen, welche durch den Optiksensor erhalten werden, und zum Feststellen, ob der Einbauzustand in Bezug auf die erhaltenen Einbauzustandswerte nach dem Beendigen des Einbauschritts normal ist.
  • Die Korrekturvorrichtung kann die Werkstück-Positions- bzw. Orientierungsdaten auf der Basis der durch den Optiksensor erhaltenen Bilddaten des ersten Werkstücks und der Bilddaten des zweiten Werkstücks erhalten.
  • Bei einer üblichen Ausführungsform korrigiert die Korrekturvorrichtung die Position und Orientierung des Roboters auf der Basis des Vergleichs zwischen den erhaltenen Werkstück-Positions- bzw. Orientierungs-Daten, die vor der Kontrollvorrichtung programmiert werden. Bei einer bevorzugten Ausführungsform erhält die Korrekturvorrichtung die Werkstück-Positions- bzw. Orientierungsdaten auf der Basis von mindestens einem Wert der Bilddaten des ersten Werkstücks und der Bilddaten des zweiten Werkstücks, die in einer Haltezustands-Erfassungsposition erhalten werden, welche sich in der Nähe einer Position befindet, in der der Einbauschritt gestartet wurde, und korrigiert die Position und Orientierung des Roboters an der Einbauschritt-Startposition.
  • Kurze Beschreibung der Zeichnungen
  • Es zeigt:
  • 1, eine Perspektivansicht, schematisch eine vollständige Anordnung zur Durchführung eines Einbauvorgangs mit einem kraftgesteuerten Robotersystem gemäß einer Ausführungsform der Erfindung;
  • 2a, eine Schemazeichnung, den Hauptteil einer Strukturlichteinheit SU;
  • 2b, eine Schemazeichnung, wie Strukturlicht erzeugt wird;
  • 3 ein Blockdiagramm, die Struktur einer Robotersteuerung als Steuervorrichtung zum Steuern des gesamten Robotersystems und den Anschlusszustand mit anderen Systemkomponenten;
  • 4, eine Schemazeichnung, die wesentlichen Punkte der Programmierung der Robotersteuerung;
  • 5, ein Fließschema, eine Abfolge für einen Zyklus des Einbauvorgangs, der von einem Playback-Vorgang durchgeführt wird;
  • 6, eine Schemazeichnung, die Erfassung von Position und Orientierung eines konvexen Abschnitts eines Einbau-Werkstücks und die Erfassung von Position und Orientierung eines konkaven Abschnitts eines Aufnahme-Werkstücks; und
  • 7, eine Schemazeichnung, die Erfassung zur Feststellung, ob eine Einbauwirkung normal ist oder nicht.
  • Die 1 zeigt schematisch eine Gesamtanordnung zur Durchführung eines Einbauvorgangs mit einem kraftgesteuerten Robotersystem gemäß einer Ausführungsform der Erfindung. In 1 ist ein Roboter 1 über ein Kabel CB1 an eine Robotersteuerung 5 angeschlossen, und er hat einen an seinem Handgelenksabschnitt 2 angeschlossenen Kraftsensor 3. Der Kraftsensor 3 umfasst eine Brückenschaltung mit einem Dehnungsmessgerät, und er ermittelt die Kraft, die auf einen Erfassungsabschnitt des Kraftsensors 3 in 6 Achsenrichtungen wirkt, und überträgt das Ergebnis der Erfassung über ein Kabel CB2 zur Robotersteuerung 5, damit eine Kraftsteuerung des Roboters 1 erfolgen kann.
  • Eine am Kraftsensor 3 befestigte bzw. fixierte Hand 4 öffnet und schließt die Haltegreifer 41 an einer geeigneten Roboterposition, so dass ein Einbau-Werkstück 7 gehalten wird. Das Einbau-Werkstück 7 ist in dieser Ausführungsform eine abgestufte Zylinderbauteilgruppe mit einem konvexen Abschnitt 71 und einer Unterseite 72. Ein Aufnahme-Werkstück 8 ist dagegen eine Bauteilgruppe mit einem zylindrischen Abschnitt 82, der einen konkaven Abschnitt 81 aufweist. Das Aufnahme-Werkstück 8 wird auf einem Positionierungsgerät 9, das auf einem Werktisch TB untergebracht ist, bereitgestellt und positioniert. Ein Symbol ΣU veranschaulicht ein Arbeitskoordinatensystem, das am Positionierungsgerät 9 fixiert ist, welches vorher auf die Robotersteuerung 5 eingestellt wird.
  • Das Positionierungsgerät 9 hält das Werkstück 8 in zwei Richtungen (± X-Achsen-Richtungen oder ± Z-Achsen-Richtungen) oder in vier Richtungen (± X-Achsen-Richtungen und ± Z-Achsen-Richtungen), beispielsweise durch eine Antriebskraft von Luftzylindern (nicht gezeigt), damit das Werkstück 8 auf einer Ebene parallel zu Tisch TB fixiert wird. Die Antriebssteuerung der Luftzylinder kann durch die Robotersteuerung 5 erfolgen.
  • Der konkave Abschnitt 81 des Aufnahme-Werkstücks 8 ist so geformt, dass er zum zylindrischen Abschnitt 82 konzentrisch ist, und er hat solche Abmessungen, dass er den konvexen Abschnitt 71 des Einbau-Werkstücks 7 fest aufnimmt.
  • Eine Strukturlichteinheit SU ist an ein Kabel CB3 an der Robotersteuerung 5 angeschlossen, und sie macht zusammen mit der Robotersteuerung 5, die eine Bildverarbeitungsfunktion im System aufweist, einen dreidimensionalen Optiksensor aus. Die Strukturlichteinheit SU befindet sich auf dem Tisch TB an einer derartigen Position, dass ein Strukturlicht (Spaltlicht) geeignet auf den konkaven Abschnitt 81 des Aufnahme-Werkstücks 8 und ein Ende des konvexen Abschnitts 71 des Einbau-Werkstücks 7 projiziert wird, das sich dem konkaven Abschnitt 81 genähert hat. Wie später beschrieben wird die Strukturlichteinheit SU zur Korrektur von Position und Orientierung des Roboters 1 vor seinem Einbauschritt verwendet, und auch als Einbauschritt-Bestätigungsvorrichtung nach dem Einbauschritt verwendet.
  • Die 2a zeigt schematisch eine Hauptstruktur der Strukturlichteinheit SU, und 2b zeigt, wie Strukturlicht erzeugt wird. Die in der 2a gezeigte Strukturlichteinheit SU ist so ausgelegt, dass sie ein Spaltlicht als Strukturlicht SL projiziert. Ein Projektionsabschnitt der Einheit umfasst einen Laseroszillator 12, eine zylindrische Linse 13, ein Galvanometer 14 mit einem Ablenkspiegel und ein Projektionsfenster 11, und ein Bildaufnahmeabschnitt umfasst eine CCD-Kamera 20 und ein Bildaufnahmefenster 21.
  • Erhält die Strukturlichteinheit SU einen Erfassungsbefehl von der Robotersteuerung 5, wird wie in der 2b gezeigt ein Laserstrahl vom Laseroszillator 12 emittiert und durch die zylindrische Linse 13 in ein Spaltlicht SL umgewandelt. Das Spaltlicht SL wird vom Galvanometer 14 in eine Richtung gemäß einem Befehlswert, der eine Projektionsrichtung anzeigt, abgelenkt und durch das Projektionsfenster 11 auf einen Messgegenstand 16 projiziert. Ein Bild, das eine auf dem Messgegenstand 16 gebildete helle Linie 15 umfasst, wird von der CCD-Kamera 20 aufgenommen und in die Robotersteuerung 5 übermittelt, die einen Bildverarbeitungsprozessor aufweist.
  • Die Robotersteuerung 5 analysiert das Bild mit der hellen Linie durch eine Bildverarbeitungsfunktion zur Gewinnung dreidimensionaler Positionen der Endpunkte 151, 152 usw. der hellen Linie 15. Das Prinzip der Gewinnung der dreidimensionalen Positionen der Endpunkte 151, 152 usw., ein Kalibrierungsverfahren sowie ein dazu gehöriger Rechenprozess sind Stand der Technik, und daher wird deren eingehende Beschreibung weggelassen.
  • 3 zeigt eine interne Architektur der Robotersteuerung 5, die Vorrichtungen zur Steuerung des Gesamtsystems bereitstellt, und den Anschluss mit anderen Systembestandteilen. Die Robotersteuerung 5 hat einen Bildprozessor sowie eine zentrale Verarbeitungseinheit (CPU) 51. Die CPU 51 ist über einen Bus 58 angeschlossen an einen Speicher 52 in ROM-Form, einen Speicher 53 in RAM-Form, einen nicht-flüchtigen Speicher 54, eine Programmierkonsole 55 mit Flüssigkristallanzeige, eine Digital-Servoschaltung 56 zum Steuern der jeweiligen Roboterachse, eine Strukturlichteinheits-Schnittstelle 61, einen Bildprozessor 62, eine Monitor-Schnittstelle 63, einen Rahmenspeicher 64, einen Programmspeicher 65, einen Datenspeicher 66 und eine allgemeine Schnittstelle 58.
  • Die Digital-Servoschaltung 56 ist zur Steuerung der jeweiligen Achsen des Roboters 1 über einen Servoverstärker 57 an ein mechanisches Teil eines Roboters RB angeschlossen. Die Strukturlichteinheits-Schnittstelle 61 ist an der vorstehend beschriebenen Strukturlichteinheit SU angeschlossen, und die Monitor-Schnittstelle 63 ist beispielsweise an einer Monitor-Anzeige MO in der Form von CRT angeschlossen. Eine Vielzahl externer Geräte kann nötigenfalls an die allgemeine Schnittstelle 67 angeschlossen werden. In dieser Ausführungsform ist zwar ein Kraftsensor 3 angeschlossen, jedoch können Luftzylinder des vorstehend beschriebenen Positionierungsgeräts 9 angeschlossen sein.
  • Der ROM 52 speichert ein Systemprogramm, das zum Steuern der jeweiligen Teile des Systems notwendig ist. Der RAM 53 wird zur vorübergehenden Speicherung von Daten und zur Berechnung verwendet. Der nicht-flüchtige Speicher 54 speichert Daten für Betriebsprogramme, die Betriebsbefehle für externe Geräte, wie den Roboter RB, die Strukturlichteinheit SU, den Kraftsensor 2 usw., bereitstellen, stellt Daten verschiedener Koordinatensysteme (eines Arbeitskoordinatensystems ΣU, eines Kraftsensorkoordinatensystems, usw.), Kalibrierungsdaten für den dreidimensionalen Optiksensor (Daten, die zum Umwandeln des Ausgangs des dreidimensionalen Optiksensors verwendet werden, ausgedrückt in dem Sensorkoordinatensystem ΣS als Positions- und Orientierungsdaten in einem Roboter-Koordinatensystem), dazu gehörige Stellwerte usw. ein.
  • Die Strukturlichteinheits-Schnittstelle 61 wird verwendet, wenn Befehle für die Steuerung der jeweiligen Teile der Strukturlichteinheit SU übertragen werden und wenn Bilder, die von der CCD-Kamera 20 aufgenommen werden (siehe 2) erfasst werden. Die in der Robotersteuerung 5 erfassten Bilder werden in Grauskala umgewandelt, und einmal im Rahmenspeicher 64 gespeichert. Die im Rahmenspeicher 64 gespeicherten Bilder können sofort auf der Monitoranzeige MO angezeigt werden.
  • Der Programmspeicher 65 speichert Programme zur Bildverarbeitung und Analyse des Bildprozessors 62, und der Datenspeicher 66 speichert eingestellte Daten, die auf die Bildverarbeitung und Analyse bezogen sind, usw. Die folgenden Daten 1) und 2) werden im Speicher gemäß der Eigenschaften der Erfindung gespeichert. Die Verarbeitung gemäß der vorstehend genannten Programme wird nachstehend beschrieben.
    • 1) Programmdaten-Vorschriftsverfahren zur Gewinnung von Position und Orientierung des konvexen Abschnitts 71 des Einbau-Werkstücks 7 und des konkaven Abschnitts 81 des Aufnahme-Werkstücks 81 zur Korrektur von Position und Orientierung des Roboters 1 vor dem Beginn des Einbauschritts, und der dazu gehörigen eingestellten Daten.
    • 2) Programmdaten-Vorschriftsverfahren zur Feststellung, ob der Einbauschritt normal erfolgt oder nicht, nachdem der Roboter 1 den Einbauschritt beendet hat, und der dazu gehörigen eingestellten Daten.
  • Auf der Basis der vorstehenden Voraussetzung wird das Verfahren zur Durchführung des Einbauvorgangs in der vorliegenden Ausführungsform zusammen mit der dazu gehörigen Verarbeitung beschrieben.
  • [1] Programmieren eines Einbauvorgangs in den Roboter.
  • Es wird ein Einbauvorgang programmiert, so dass der Roboter veranlasst wird, den Einbauvorgang an einer Vielzahl von Werkstückpaaren 7 und 8 durchzuführen, indem ein Playback-Vorgang gemäß einem Befehlsprogramm wiederholt wird. Die Programmierung wird nachstehend anhand der 4 zusammengefasst. Ein Werkstück-Koordinatensystem ΣT wird derart eingestellt, dass dessen Ursprung mit einem Mittelpunkt (TCP) einer Spitzenfläche 73 eines gemäß der Programmierung von Hand 4 gehaltenen Einbau-Werkstücks 7 zusammenfällt, und die Richtung einer Zylinderachse des Einbau-Werkstücks 7 mit der Richtung der Z-Achse zusammenfällt.
    • 1) Es wird eine Halteposition Ph (einschließlich einer Orientierung, die hiernach angewendet wird) programmiert zum Halten eines Einbau-Werkstücks 7 (eines Vorlage-Werkstücks zur Programmierung), das an einer festgelegten Zufuhrposition mit einer festgelegten Orientierung zugeführt wird, mit der Hand 4. Eine Matrix, die die programmierte Halteposition in einem Basiskoordinatensystem ΣB veranschaulicht, wird mit H bezeichnet.
    • 2) Es wird der Halteschritt durch Hand 4 (ein Schritt Öffnen der Greifer 41) programmiert.
    • 3) Es wird eine Haltezustands-Erfassungsposition Pd, ausgewählt aus einem Bereich 17, der sich zur Positionsmessung (Spaltlichtprojektion) durch eine Strukturlichteinheit SU eignet, programmiert. Eine Matrix, die die programmierte Haltezustands-Erfassungsposition Pd in dem Basiskoordinatensystem ΣB veranschaulicht, wird mit D bezeichnet. Man beachte, dass die Strukturlichteinheit SU an einer derartigen Stelle angeordnet ist, die sich auch zur Feststellung eignet, ob der Einbauschritt normal erfolgte oder nicht (was nachstehend beschrieben wird). Anschließend wird die Haltezustands-Erfassungsposition Pd so ausgewählt, dass sie nicht weit entfernt ist von einem konkaven Abschnitt 81 eines Aufnahme-Werkstücks 8, und dass die Strukturlichteinheit SU Bilddaten an einem konvexen Teil 71 des Einbauwerkstücks 7 erfassen kann.
    • 4) Es werden Bedingungen der Bewegung von der Halteposition Ph zur Haltezustand-Erfassungsposition Pd bestimmt. Bei dem erfindungsgemäßen Beispiel werden die "Bewegung um die jeweiligen Achsen" und das "Positionierungsverhältnis 100% (Stoppen an der Position Pd)" bestimmt. Es wird zudem eine geeignete Geschwindigkeit bestimmt.
    • 5) Es wird eine Annäherungsposition Pa, die sich zum Starten eines Schritts des Einbaus des konvexen Abschnitts 71 in den konkaven Abschnitt 81 eignet, programmiert. Eine Matrix, die die programmierte Annäherungsposition veranschaulicht, wird mit A bezeichnet. Die Annäherungsposition Pa wird als Position und Orientierung des Roboters programmiert, in der der konvexe Abschnitt 71 dem konkaven Abschnitt 81 gegenüberliegt und dazu ausgerichtet ist, und zwar unter der Bedingung, dass die Positionierung des Aufnahme-Werkstücks 8 und das Halten des Aufnahme-Werkstücks 7 in einem idealen Zustand sind.
    • 6) Es werden Bedingungen der Bewegung von der Haltezustands-Erfassungsposition Pd zur Annäherungsposition Pa bestimmt. Bei dem erfindungsgemäßen Beispiel werden die "gerade Bewegung" und das "Positionierungsverhältnis 100% (vollständiges Anhalten an der Position Pa)" bestimmt. Man beachte, dass der Bewegungsschritt durch eine Annäherungsschrittkorrektur, wie später beschrieben, korrigiert wird.
    • 7) Es werden die Bedingungen der kraftgesteuerten Einbauwirkung bestimmt. Die zu programmierenden Bedingungen sind wie folgt: (i) Die Kraftsteuerung erfolgt nur effizient auf eine Kraft Fz der Z-Achsenrichtung in dem Werkzeug-Koordinatensystem ΣT. Die Größe einer Zielkraft wird geeignet durch Abstimmen bestimmt. Eine Kraftsteuerung ist in der X-Achsenrichtung, in der Y-Achsenrichtung, um die X-Achse, um die Y-Achse und um die Z-Achse ineffizient. Ein Bewegungsbefehl, der diese Komponenten enthält, wird nicht an das Servosystem ausgegeben (diese Komponenten werden so beibehalten wie sie sind, da sie sich in der Annäherungsposition befinden). (ii) Es wird eine Einbau-Länge L bestimmt. Die Einbaulänge L wird durch manuelle Eingabe gemäß der Design-Daten bestimmt. (iii) Es wird ein Index eingestellt zur Feststellung, ob ein Einbauschritt beendet ist oder nicht. In diesem Beispiel wird ein Referenzwert t0 für die nach dem Beginn des Einbauschritts vergangenen Zeit eingestellt. Die nach dem Start des Einbauschritts vergangene Zeit wird gemessen und als Index zur Feststellung verwendet, ob der Einbauschritt beendet ist, zusammen mit der Einbaulänge L, Wird mindestens einer der Werte Bewegung der Distanz L und vergangene Zeit t0, gemessen vom Beginn eines Annäherungsschritts, erfasst, wird speziell der Roboter gestoppt und die Kraftsteuerung beendet.
    • 8) Es erfolgt der Schritt Beendigung des Haltevorgangs durch Hand 4 (der Schritt der Öffnen der Greifer 41) und der Rückzugschritt des Roboters. Als Roboter-Rückzugspunkt wird eine Position, die sich für den nächsten Betriebszyklus eignet, programmiert (nicht in den Zeichnungen gezeigt).
  • [2] Programmieren der Erfassungsschritte durch den dreidimensionalen Optiksensor.
  • Befehle zur Durchführung der Erfassungsschritt durch den dreidimensionalen Optiksensor werden in das Betriebsprogramm geschrieben. Die programmierten Erfassungsschritte und das Timing für die Schritte sind wie folgt:
    • 1) Erfassung von Position und Orientierung des konvexen Abschnitts 71 des von Roboter 1 gehaltenen Werkstücks 7. Die Erfassung erfolgt zwischen dem Zeitpunkt, an dem sich der Roboter 1 an der Haltezustands-Erfassungsposition Pd befindet, und dem Zeitpunkt, an dem der Annäherungsschritt begonnen hat. In dem vorliegenden Beispiel erfolgt die Erfassung sofort nach dem Positionieren von Roboter 1 in der Haltezustands-Erfassungsposition Pd.
    • 2) Erfassung von Position und Orientierung des konkaven Abschnitts 81 des Aufnahme-Werkstücks 8. Die Erfassung erfolgt zu einem beliebigen Zeitpunkt, nachdem die Positionierung des Aufnahme-Werkstücks 8 durch das Positionierungsgerät 9 beendet ist und bevor der Annäherungsschritt des Roboters 1 angefangen hat. Im vorliegenden Beispiel erfolgt die Erfassung, sofort nachdem die Erfassung von Position und Orientierung des konvexen Abschnitts 71 wie beschrieben in Punkt 1) beendet ist.
    • 3) Erfassung zur Bestimmung, ob der Einbauschritt durch den Roboter 1 normal ist nicht. In diesem Beispiel wird die Position und die Orientierung einer Rückseite 72 des Einbau-Werkstücks 7 wie nachstehend beschrieben erfasst. Die Erfassung erfolgt, sofort nachdem der Roboter 1 das Halten des Werkstücks 7 beendet hat und sich in die Rückzugsposition zurückzieht.
  • 5, ein Fließschema, zeigt eine Abfolge von einem Zyklus des Einbauvorgangs, der über einen Playback-Vorgang durchgeführt wird, nachdem die Einprogrammierung auf die vorstehend beschriebene Weise beendet wurde. Jeder Schritt S1–S15 wird wie folgt kurz beschrieben:
  • Schritt S1: Bewegen von Roboter 1 von einer Warteposition zur programmierten Halteposition Ph und Positionieren des Roboters an der Stelle.
  • Schritt S2: Halten des Einbau-Werkstücks 7 über einen Öffnungsschritt der Greifer 41 von Hand 4.
  • Schritt S3: Bewegen des Roboters 1 zur programmierten Haltezustands-Erfassungsposition und Positionieren des Roboters 1 an der Stelle.
  • Schritt S4: Erfassen von Position und Orientierung des konvexen Abschnitts 71 des von dem Roboter 1 gehaltenen Einbau-Werkstücks 7. Der Erfassungsweg wird später beschrieben.
  • Schritt S5: Erfassen von Position und Orientierung des konkaven Abschnitts 81 des Aufnahme-Werkstücks 8.
  • Schritt S6: Bewegen von Roboter 1 zu einer korrigierten Annäherungsposition Pa', die bestimmt wird durch Korrigieren der programmierten Annäherungsposition Pa auf der Basis der Erfassungsergebnisse der Schritte S4 und S5.
  • Schritt S7: Beginn eines kraftgesteuerten Einbauschritts. Da die Einzelheiten des kraftgesteuerten Einbauschritts im allgemeinen bekannt sind, wird deren Erklärung weggelassen. In diesem Beispiel wird eine Impedanzsteuerung des Roboters auf die vorstehend beschriebene Weise durchgeführt. Somit bewegt sich der Roboter 1 in der Z-Achsen-Richtung und kommt gleichzeitig in den Zustand, dass er die bestimmte Zielkraft Fz in der Z-Achsen-Richtung ausgibt.
  • Schritt S8: Warten zur Erfassung der Bewegung des Abstands L oder der verstrichenen Zeit t0, die vom Beginn des Annäherungsschritts gemessen wird.
  • Schritt S9: Stoppen des Roboters und Beenden der Kraftsteuerung.
  • Schritt S10: Lösen des Einbau-Werkstücks 7 aus dem Haltegriff durch einen Öffnungsschritt der Greifer 41 von Hand 4.
  • Schritt S11: Rückzug des Roboters 1 zur einprogrammierten Rückzugsposition.
  • Schritt S12: Erfassen von Position und Orientierung der Bodenfläche 72 des von Roboter 1 gehaltenen Einbau-Werkstücks 7.
  • Schritt S13: Feststellen, ob der Einbauzustand des konvexen Abschnitts 71 in dem konkaven Abschnitt 81 normal ist oder nicht.
  • Schritt S14: Ausgeben eines Signals, das einen normalen Einbauzustand anzeigt, wenn der Einbauzustand normal ist. Aufgrund dessen wird ein Hinweis, wie "normaler Einbau" auf dem Bildschirm der Programmierkonsole 55 angezeigt.
  • Schritt S15: Ausgabe eines Alarmsignals, das einen anormalen Einbauzustand anzeigt, wenn der Einbauzustand nicht normal ist. Aufgrund dessen wird eine Anzeige, wie "anormaler Einbau" auf dem Bildschirm der Programmierkonsole 55 angezeigt, und es wird ebenfalls ein akustisches Alarmsignal gegeben, so dass das System zu einem Nothalt gebracht wird.
  • Es folgt eine ergänzende Beschreibung der Erfassung durch den dreidimensionalen Optiksensor, und der Korrektur des Roboterbetriebs sowie der Feststellung hinsichtlich des Einbauzustands auf der Basis der Erfassung, welche in der vorstehend genannten Abfolge enthalten sind.
  • [1] Erfassung von Position und Orientierung des konvexen Abschnitts 71 von Einbau-Werkstück 7 (Schritt S4).
  • Wie in der 6 gezeigt wird Spaltlicht gelegentlich (in diesem Fall zwei Mal) aus dem Projektionsabschnitt der Strukturlichteinheit SU projiziert, so dass nacheinander die hellen Linien ab und cd auf der Endfläche 73 von Werkstück 7 erzeugt werden. Die Bilder der hellen Linien ab und cd werden von der Kamera der Strukturlichteinheit SU aufgenommen. Die erhaltenen Bilder werden in der Robotersteuerung 5 analysiert, so dass die dreidimensionalen Positionen der Endpunkte a, b, c und d der hellen Linien ab und cd erhalten werden. Aus den Positionen dieser vier Punkte wird beispielsweise eine Mittelposition und eine Orientierung der runden Fläche 73 durch eine Annäherung der kleinsten Fehlerquadrate erhalten. Ein in der Mitte der runden Fläche 73 fixiertes Koordinatensystem wird als ΣC bezeichnet. Eine Matrix (Daten im Sensor-Koordinatensystem ΣS), welche die Position und die Orientierung des Koordinatensystems ΣC veranschaulicht, das vom Sensorausgang während eines Playback-Vorgangs (tatsächlicher Vorgang) erhalten wird, wird mit C' bezeichnet.
  • Eine ähnliche Erfassung erfolgt durch Programmieren der Erfassungswirkung durch den dreidimensionalen Optiksensor, wie vorstehend beschrieben. In Bezug auf die vorstehend beschrieben Definition des Werkzeug-Koordinatensystems ΣT ist die Position und die Orientierung des konvexen Abschnitts 71 zum Zeitpunkt der Programmierung der Haltezustandserfassungsposition äquivalent zur Position und Orientierung des Werkzeug-Koordinatensystems ΣT. Eine Matrix (Sensor-Ausgang), die diese Position und Orientierung des Werkzeugkoordinatensystems ΣT in dem Sensorkoordinatensystem ΣS veranschaulicht, wird mit C bezeichnet.
  • [II] Erfassung von Position und Orientierung des konkaven Abschnitts 81 des Aufnahme-Werkstücks 8 (Schritt S5).
  • Wie bei der Erfassung des konvexen Abschnitts 71 wird gelegentlich (in diesem Beispiel zwei Mal) Spaltlicht aus dem Projektionsabschnitt der Strukturlichteinheit SU, wie in 6 gezeigt, projiziert, so dass nacheinander helle Linien ef, gh und helle Linien ij, kl auf der Randfläche 83 des zylindrischen Abschnitts erzeugt werden. Die Bilder dieser heller Linien werden durch die Kamera der Strukturlichteinheit SU aufgenommen. Die erhaltenen Bilder werden in der Roboter-Steuerung 5 analysiert, so dass die dreidimensionalen Positionen der inneren Endpunkte f, g, j und k der jeweiligen hellen Linien erhalten werden. Aus den Positionen dieser vier Punkte wird beispielsweise eine Mittelposition und eine Orientierung der runden Öffnung des konkaven Abschnitts 81 durch eine Annäherung der kleinsten Fehlerquadrate erhalten. Ein in der Mitte der runden Öffnung fixiertes Koordinatensystem wird mit ΣV bezeichnet, und eine Matrix (Daten in dem Sensor-Koordinatensystem ΣS), die die Position und die Orientierung des Koordinatensystems ΣV veranschaulicht, das aus dem Sensor-Ausgang während eines Playback-Vorgangs (tatsächlicher Vorgang) erhalten wird, wird mit V' bezeichnet.
  • Die ähnliche Erfassung wird durchgeführt durch Programmieren des Erfassungsschritts durch den dreidimensionalen Optiksensor, wie vorstehend beschrieben. Eine Matrix (Sensor-Ausgang), die die Position und die Orientierung des Koordinatensystems ΣV, das die Position und die Orientierung des konkaven Abschnitts 81 ausdrückt, zum Zeitpunkt der Programmierung im Sensor-Koordinatensystem ΣS veranschaulicht, wird mit V bezeichnet.
  • [III] Wie man die korrigierte Annäherungsposition A' erhält (Schritt S6).
  • Zuerst wird die Korrektur der Abweichung von Position und Orientierung des konkaven Abschnitts 81 erläutert.
  • Zu den vorstehend beschriebenen homogenen Transformationsmatrizen werden die wie folgt definierten homogenen Transformationsmatrizen verwendet. Daten entsprechend dieser Definitionen werden als bestimmte Daten auf jedem Koordinatensystem in dem nicht-flüchtigen Speicher 54 in der Robotersteuerung 5 gespeichert.
  • R:
    Eine Matrix, die die Position und die Orientierung eines Roboter-Frontplattenkoordinatensystems ΣF in dem Basiskoordinatensystem ΣB veranschaulicht.
    T:
    Eine Matrix, die die Position und Orientierung des Werkzeugkoordinatensystems ΣT im Frontplattenkoordinatensystem ΣF veranschaulicht.
    U:
    Eine Matrix, die die Position und Orientierung des Arbeitskoordinatensystems ΣU im Basiskoordinatensystem ΣB veranschaulicht.
    P:
    Eine Matrix, die die Position und Orientierung des programmierten Punktes (Halteorientierungs-Erfassungsposition Pd) in dem Arbeitskoordinatensystem ΣU veranschaulicht.
  • Zum Zeitpunkt, an dem der Roboter die Haltezustands-Erfassungsposition Pd erreicht, gilt die folgende Gleichung (1): R·T = U·P (1)
  • Daher ist die Position der Roboter-Frontplatte zu dieser Zeit gegeben durch die folgende Gleichung (2): R = U·P·T–1 (2)
  • Wird hier die Position der Frontplatte, die der korrigierten Position des TCP entspricht, welches die Abweichung von Position und der Orientierung des konkaven Abschnitts 81 kompensiert, mit R' bezeichnet, gilt die folgende Gleichung (3): R'·T = U·ΔU·P (3)
  • Da die linke Seite die Position des TCP nach der Korrektur zur Kompensation der Abweichung von Position und Orientierung des konkaven Abschnitts 81 veranschaulicht, muss man zur Gewinnung von ΔU in der Gleichung (3) eine Korrektur vornehmen.
  • Vorausgesetzt, eine Matrix, die das Koordinatensystem ΣV (die Mittelposition und Orientierung der Öffnung des konkaven Abschnitts) in dem Arbeitskoordinatensystem ΣU veranschaulicht, hat die Bezeichnung Q (unbekannte Festmatrix), und eine Matrix, die die Position und Orientierung des Sensorkoordinatensystem ΣS im Basiskoordinatensystem ΣB veranschaulicht, hat die Bezeichnung S, gelten nun die folgenden Gleichungen (4) und (5) zum Zeitpunkt der Programmierung bzw. zum Zeitpunkt der tatsächlichen Messung (Playback-Betrieb).
  • Zum Zeitpunkt der Programmierung; U·Q = S·V (4)
  • Zum Zeitpunkt der tatsächlichen Messung; U·ΔU·Q = S·V' (5)
  • Aus diesen Gleichungen folgt: ΔU = U–1·S·V'·(U–1·S·V)–1 = U–1·S·V'·V–1·S–1·U (6).
  • Auf der rechten Seite der Gleichung (6) werden die Daten für U, S und V in die Robotersteuerung programmiert, und V' wird in Schritt S5 erhalten. Daher kann ΔU in der Robotersteuerung erhalten werden.
  • Anschließend wird die Korrektur der Abweichung von Position und Orientierung des konvexen Abschnitts 71 erläutert.
  • Wie vorstehend beschrieben gilt zum Zeitpunkt, an dem der Roboter die programmierte Haltezustands-Erfassungsposition erreicht, die vorstehende Gleichung (1), und die Position der Roboter-Frontplatte zu diesem Zeitpunkt ist durch die vorstehende Gleichung (2) gegeben.
  • Vorausgesetzt, die Position der Frontplattenkoordinate mit der Position der TCP nach der Korrektur zur Kompensation der Abweichung der Position und Orientierung des konvexen Abschnitts 71 hat die Bezeichnung R'', gilt die folgende Gleichung (7) für den konkaven Abschnitt 81: R''·T·ΔT = U·P (7)
  • Daher gilt: R''·T = U·P·ΔT–1 (8)
  • Da die linke Seite der Gleichung (8) die Position des TCP nach der Korrektur zur Kompensation der Abweichung von Position und Orientierung des konvexen Abschnitts 71 veranschaulicht, muss man zur Gewinnung von ΔT in der Gleichung (8) die Korrektur ausführen.
  • Vorausgesetzt, eine Matrix, die das Koordinatensystem ΣC (die Mittelposition und Orientierung der Spitzenendfläche des konvexen Abschnitts) in dem Werkzeugkoordinatensystem ΣT (unbekannte Festmatrix) veranschaulicht, hat die Bezeichnung M, gelten nun die folgenden Gleichungen (9) und (10) zum Zeitpunkt der Programmierung bzw. zum Zeitpunkt der tatsächlichen Messung (Playback-Betrieb).
  • Zum Zeitpunkt der Programmierung; R·T·M = S·C (9)
  • Zum Zeitpunkt der tatsächlichen Messung R·T·ΔT·M = S·C' (10)
  • Aus diesen Gleichungen errechnet sich: ΔT = T–1·R–1·S·C''(T–1·R–1·S·C)–1 = T–1·R–1·S·C'·C–1·S–1·R·T (11)
  • Auf der rechten Seite der Gleichung (11) werden Daten für T, R, S und C in die Robotersteuerung programmiert, und C' wird in Schritt S4 erhalten. Daher kann ΔT in der Robotersteuerung erhalten werden.
    • 3) Die Art der Korrektur der Abweichung von Position und Orientierung des konkaven Abschnitts 81 und der Abweichung von Position und Orientierung des konvexen Abschnitts 71 wird erläutert.
  • Die Abweichung von Position und Orientierung des konkaven Abschnitts 81 und die Abweichung von Position und Orientierung des konvexen Abschnitts 71 kann jeweils korrigiert werden mit den aus den Gleichungen (6) und (11) erhaltenen Werten für ΔU und ΔT.
  • Vorausgesetzt, die Position der Vorderplattenkoordinate mit der Position der TCP nach der Korrektur zum Kompensieren beider Abweichungen hat die Bezeichnung RCR, gilt speziell die folgende Gleichung (12): RCR·T·ΔT = U·ΔU·P (12)
  • Aus der Gleichung (12) geht hervor, dass sich durch Substitution in Bezug auf die eingestellten Daten U am Arbeitskoordinatensystem ΣU und die eingestellten Daten T am Werkzeugkoordinatensystem ΣT mit den Ergebnissen der Gleichung (6) und (11) U → U·ΔU T → T·ΔTdie Korrektur zur Kompensation der Abweichung von Position und Orientierung des konvexen Abschnitts 71 und des konkaven Abschnitts 81 vornehmen lässt. Dies gilt auch für die Korrektur zur Kompensation der Abweichung von Position und Orientierung des konvexen Abschnitts 71 und des konkaven Abschnitts 81 in Bezug auf die Annäherungsposition Pa. Wird daher die Frontplatte zur folgenden Position RA' verschoben, welche erhalten wird durch Ersetzen der Haltezustandserfassungsposition P in dem Arbeitskoordinatensystem ΣU durch Annäherungsposition G im Arbeitskoordinatensystem ΣU, wird die Annäherungsposition Pa korrigiert nach Pa'. RA' = U·ΔU·G·(T·ΔT)–1 (13)
  • In der vorstehenden Gleichung kann die Matrix G berechnet werden gemäß der folgenden Gleichung, wobei die programmierte Annäherungsposition Pa und das Arbeitskoordinatensystem ΣU in dem Basiskoordinatensystem ΣB verwendet werden. G = U–1·A(14)
    • (d) Die Art der Feststellung, ob der Einbauzustand normal ist oder nicht (Schritte S12/S13).
  • Wie in der 7 gezeigt, wird gelegentlich (in diesem Fall zweimal) ein Spaltlicht aus dem Projektionsabschnitt der Strukturlichteinheit SU projiziert, so dass man nacheinander die hellen Linien mit und op auf der Spitzenfläche 72 des Einbau-Werkstücks 7 erzeugt. Die Bilder dieser hellen Linien werden nacheinander von der Kamera der Strukturlichteinheit SU aufgenommen. Die erhaltenen Bilder werden in der Robotersteuerung 5 analysiert, so dass dreidimensionale Positionen der Endpunkte m, n, o und p der jeweiligen hellen Linien erhalten werden.
  • Dann wird auf der Basis der Z-Koordinatenwerte dieser Positionen (in dem Basiskoordinatensystem ΣB) festgestellt, ob die Höhe der Bodenfläche 72, gemessen vom Boden 85 des konkaven Abschnitts 81 (in der Horizontalrichtung) normal ist (wobei die Einbaulänge L erzielt wird).
  • Es wird beispielsweise ein oberer Grenzwert Zmax für die Z-Koordinatenwerte der Endpunkte m, n, o und p eingestellt, und ist mindestens einer der Endpunkte m, n, o und p größer als der obere Grenzwert Zmax, erfolgt die Feststellung, dass der Einbau nicht normal ist. Der anormale Einbau steht beispielsweise für Fälle, in denen eine Lücke 84, die größer als ein festgelegter Wert ist, zwischen der Spitze des konvexen Abschnitts 71, der in den konkaven Abschnitt 81 eingefügt ist, und dem Boden 85 zurück bleibt. Die Feststellung bezüglich der Normalität der Einbau-Orientierung kann anhand von Unterschieden zwischen den Z-Koordinatenwerten der Endpunkte m, n, o und p erfolgen.
  • Bei der vorliegenden Ausführungsform wird der dreidimensionale Optiksensor als Optiksensor verwendet. In einigen Fällen, beispielsweise wenn die Haltung des Einbau-Werkstücks 7 nur geringfügig abweicht und eine Richtungskomponente (beispielsweise die Y-Richtungskomponente) der Position der Aufnahme-Werkstücks 7 mit hoher Genauigkeit gesteuert wird, kann ein zweidimensionaler Optiksensor als Optiksensor verwendet werden. Natürlich wird auch in solchen Fällen Information über die Korrektur der Schritte des Roboters und Information darüber, ob der Einbauzustand normal ist oder nicht, erhalten.
  • Erfindungsgemäß wird der Einbauvorgang durch zusätzliches Bereitstellen eines Optiksensors an einem kraftgesteuerten Robotersystem zur Durchführung des Einbauvorgangs zur Verwendung bei der Korrektur der Roboterschritte und bei der Gewinnung von Information, ob ein Einbauzustand normal ist oder nicht, mit hoher Verlässlichkeit automatisiert.

Claims (5)

  1. Kraftgesteuertes Robotersystem zur Durchführung eines Arbeitsschrittes Einbauen eines ersten Werkstücks (7) in ein zweites Werkstück (8), umfassend: einen Roboter (1) mit einer Roboterhand (4) zum Halten des ersten Werkstücks (7) und einem Kraftsensor (3) zum Erfassen der auf das erste Werkstück (7) einwirkenden Kraft, wird dieses von der Roboterhand (4) gehalten; einen Optiksensor (SU) zur Gewinnung von Bildwerten, welche die relative Position bzw. Orientierung zwischen dem ersten Werkstück (7) und dem zweiten Werkstück (8) liefern; und eine Steuervorrichtung (5) zum Steuern des Roboters (1) und des Optiksensors (SU), wobei die Steuervorrichtung (5) eine Vorrichtung umfasst, die den Einbauschritt durchführt und die das erste Werkstück (7), wird es von der Roboterhand (4) gehalten, an das zweite Werkstück (8) annähert, und die einen Einbauschritt unter der Kraftsteuerung auf der Basis eines Ausgangs von Kraftsensor (3) durchführt; gekennzeichnet durch: eine Korrekturvorrichtung zur Gewinnung der Positions- bzw. Orientierungswerte des Werkstücks, die die relative Position bzw. Orientierung zwischen dem ersten Werkstück (7) und dem zweiten Werkstück (8) auf der Basis der Bildwerte veranschaulichen, die durch den Optiksensor (SU) erhalten werden, und zum Korrigieren der Position und der Orientierung des Roboters (1) auf der Basis der erhaltenen Positions- bzw. Orientierungswerte des Werkstücks vor dem Einbauschritt.
  2. Kraftgesteuertes Robotersystem nach Anspruch 1, wobei die Korrekturvorrichtung die Positions- bzw. Orientierungswerte des Werkstücks auf der Basis der Bildwerte des ersten Werkstücks (7) und der Bildwerte des zweiten Werkstücks (8) erhält, die vom Optiksensor (SU) gewonnen werden.
  3. Kraftgesteuertes Robotersystem nach Anspruch 1 oder 2, umfassend eine Unterscheidungsvorrichtung zur Gewinnung von Einbauzustandswerten, die den Einbauzustand des ersten Werkstücks (7) in dem zweiten Werkstück (8) auf der Basis der Bildwerte der ersten und zweiten Werkstücke (7, 8) veranschaulichen, und die durch den Optiksensor (SU) erhalten werden, und zur Unterscheidung, ob der Einbauzustand auf der Basis der erhaltenen Einbauzustandswerte nach dem Beendigen des Einbauschritts normal ist oder nicht.
  4. Kraftgesteuertes Robotersystem nach einem der Ansprüche 1 bis 3, wobei die Korrekturvorrichtung die Position und die Orientierung des Roboters (1) auf der Basis des Vergleichs zwischen den erhaltenen Positions- bzw. Orientierungswerten des Werkstücks und den Positions- bzw. Orientierungswerten des Werkstücks, die vor der Steuervorrichtung (5) eingegeben werden, korrigiert.
  5. Kraftgesteuertes Robotersystem nach einem der Ansprüche 1 bis 3, wobei die Korrekturvorrichtung Positions- bzw. Orientierungswerte des Werkstücks auf der Basis von mindestens einem der Bildwerte des ersten Werkstücks (7) und der Bildwerte des zweiten Werkstücks (8) gewinnt, die in einer Haltezustand-Erfassungsposition erhalten werden, welche in der Nähe einer Position eingestellt ist, in der der Einbauschritt beginnt, und die die Position und die Orientierung des Roboters (1) an der Einbauschritt-Startposition korrigiert.
DE69736348T 1996-10-24 1997-10-24 Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten Revoked DE69736348T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP29925096 1996-10-24
JP29925096 1996-10-24
PCT/JP1997/003878 WO1998017444A1 (fr) 1996-10-24 1997-10-24 Systeme de robot de commande de forces a capteur optique pour travail d'insertion

Publications (2)

Publication Number Publication Date
DE69736348D1 DE69736348D1 (de) 2006-08-31
DE69736348T2 true DE69736348T2 (de) 2006-11-30

Family

ID=17870106

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69736348T Revoked DE69736348T2 (de) 1996-10-24 1997-10-24 Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten

Country Status (4)

Country Link
US (1) US6141863A (de)
EP (1) EP0884141B1 (de)
DE (1) DE69736348T2 (de)
WO (1) WO1998017444A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019131401B3 (de) * 2019-11-21 2020-10-29 Franka Emika Gmbh Kalibrierung einer Impedanzregelung eines Robotermanipulators
DE112017007028B4 (de) 2017-02-09 2023-06-15 Mitsubishi Electric Corporation Positionskontrollvorrichtung und Positionskontrollverfahren

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5987726A (en) * 1996-03-11 1999-11-23 Fanuc Robotics North America, Inc. Programmable positioner for the stress-free assembly of components
JPH11123683A (ja) 1997-10-22 1999-05-11 Fanuc Ltd 引き抜き分解機能を有する力制御ロボット
US6941645B2 (en) * 2000-03-15 2005-09-13 Kazuhiro Kosuge Automatic piston inserting equipment using a vision system
DE20019096U1 (de) * 2000-11-10 2001-01-18 Dual M Tech Ag Vorrichtung zum zielgerichteten Bewegen elektronischer Bauteile mit einem Schwenkspiegel
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
DE10235905A1 (de) * 2002-03-04 2003-09-18 Vmt Bildverarbeitungssysteme G Verfahren zur Bestimmung der Lage eines Objektes und eines Werkstücks im Raum zur automatischen Montage des Werkstücks am Objekt
JP2004142015A (ja) 2002-10-24 2004-05-20 Fanuc Ltd センサ付きロボット
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
CN100567098C (zh) * 2003-05-21 2009-12-09 松下电器产业株式会社 物品管理系统和物品管理服务器
DE10323438B3 (de) 2003-05-23 2004-12-16 Ligmatech Automationssysteme Gmbh Verfahren und Vorrichtung zum Ausrichten von plattenförmigen Werkstücken
US7200910B2 (en) * 2003-10-28 2007-04-10 Delphi Technologies, Inc. System and method of disposing a substrate in a housing
US7043835B2 (en) * 2004-04-09 2006-05-16 Sunpower, Inc. Method for centering a workpiece on the cylindrical axis of a bore
EP1766580A2 (de) * 2004-07-14 2007-03-28 Braintech Canada, Inc. Verfahren und vorrichtung für maschinensicht
JP2007185723A (ja) * 2006-01-11 2007-07-26 Fujifilm Corp 自動調芯装置及び方法
WO2007149183A2 (en) * 2006-05-25 2007-12-27 Braintech Canada, Inc. System and method of robotically engaging an object
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
US9008836B2 (en) * 2007-01-09 2015-04-14 Abb Inc. Method and system for robotic assembly parameter optimization
JP2008290228A (ja) * 2007-04-24 2008-12-04 Fanuc Ltd 嵌合装置
JP2008296310A (ja) * 2007-05-30 2008-12-11 Fanuc Ltd 加工ロボットの制御装置
JP4271249B2 (ja) * 2007-06-14 2009-06-03 ファナック株式会社 嵌合装置
JP4737450B2 (ja) * 2007-07-11 2011-08-03 トヨタ自動車株式会社 キー材嵌入方法及びキー材嵌入装置
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
DE102007039384A1 (de) * 2007-08-17 2009-02-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Handhabungsvorrichtung und Verfahren zur Änderung der Gelenkstellungen der Handhabungsvorrichtung
EP2036660A1 (de) * 2007-09-12 2009-03-18 Hans Oxenfarth Verfahren und Vorrichtung zur lage- und winkelkompensierten Bauteilbefestigung
WO2009123956A1 (en) * 2008-03-31 2009-10-08 Abb Research Robot parts assembly on a workpiece moving on an assembly line
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
DE102009040194B4 (de) * 2009-09-07 2015-06-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Kraftregelung
JP2011115877A (ja) 2009-12-02 2011-06-16 Canon Inc 双腕ロボット
JP5578844B2 (ja) 2009-12-21 2014-08-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5528095B2 (ja) * 2009-12-22 2014-06-25 キヤノン株式会社 ロボットシステム、その制御装置及び方法
IT1398311B1 (it) * 2010-02-22 2013-02-22 Sierra S P A Metodo per l'inserimento di curvette nei tubi per fluido di uno scambiatore di calore.
US20110209320A1 (en) * 2010-02-26 2011-09-01 Abb Inc. Vision Guided Robotic Grommet Installation
JP5218470B2 (ja) 2010-04-28 2013-06-26 株式会社安川電機 ロボットの作業成否判定装置、および方法
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
CN102128703B (zh) * 2010-12-23 2012-07-25 合肥工业大学 一种气浮式多维力测力传感器的标定加载方法
CN102175967B (zh) * 2011-01-05 2014-01-15 宁波福尔达智能科技股份有限公司 汽车阅读灯按键和档位检测装置
CN102175966B (zh) * 2011-01-05 2013-09-04 宁波福尔达智能科技股份有限公司 汽车阅读灯按键和衣帽钩的检测装置
CN102259339A (zh) * 2011-02-23 2011-11-30 山东华兴机械股份有限公司 一种机械手
JP5744587B2 (ja) * 2011-03-24 2015-07-08 キヤノン株式会社 ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP5791387B2 (ja) * 2011-06-23 2015-10-07 キヤノン株式会社 自動組立装置および自動組立装置による部品組立方法
JP5360155B2 (ja) * 2011-08-01 2013-12-04 株式会社安川電機 ロボットシステム
US8863371B2 (en) * 2011-12-09 2014-10-21 Baker Hughes Incorporated Positioning system and method for automated alignment and connection of components
US9217636B2 (en) 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium
JP5971342B2 (ja) * 2012-09-04 2016-08-17 株式会社安川電機 ロボットの制御パラメータ調整方法、ロボットシステム、及びロボット制御装置
JP5939202B2 (ja) * 2013-06-04 2016-06-22 株式会社安川電機 ロボット教示補助装置、ロボットシステムおよびロボット教示方法
JP2014151377A (ja) * 2013-02-06 2014-08-25 Seiko Epson Corp ロボット制御方法、ロボット制御装置、ロボットシステム、ロボット及びプログラム
TW201502733A (zh) * 2013-07-04 2015-01-16 鴻海精密工業股份有限公司 視覺對位元裝置、視覺對位元系統及方法
JP6444027B2 (ja) * 2013-12-09 2018-12-26 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
CN103722554B (zh) * 2014-01-15 2015-12-09 西北工业大学 一种空间遥操作方法
JP6351293B2 (ja) * 2014-02-20 2018-07-04 キヤノン株式会社 ロボットシステム、および物品の製造方法
JP2015157340A (ja) * 2014-02-25 2015-09-03 セイコーエプソン株式会社 ロボット、制御装置、ロボットシステム、および制御方法
JP6380828B2 (ja) * 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
CN105014675B (zh) * 2014-06-20 2016-08-17 北京信息科技大学 一种狭窄空间智能移动机器人视觉导航系统及方法
CN104057290B (zh) * 2014-06-24 2016-09-14 中国科学院自动化研究所 一种基于视觉和力反馈控制的机器人装配方法与系统
CN105382839A (zh) * 2014-08-25 2016-03-09 精工爱普生株式会社 机器人以及机器人系统
JP6460690B2 (ja) * 2014-09-16 2019-01-30 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP6443837B2 (ja) * 2014-09-29 2018-12-26 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
CN104308530B (zh) * 2014-10-14 2016-09-14 浙江工业大学 基于视觉检测的单向器星轮自动化装配装置
EP3342556A4 (de) * 2015-08-25 2019-05-29 Kawasaki Jukogyo Kabushiki Kaisha Robotersystem
JP6325507B2 (ja) * 2015-11-09 2018-05-16 ファナック株式会社 嵌合部品と被嵌合部品とをロボットによって嵌合する方法
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
CN106041926B (zh) * 2016-06-12 2018-10-19 哈尔滨工程大学 一种基于卡尔曼滤波器的工业机械臂力/位置混合控制方法
JP6915239B2 (ja) * 2016-07-22 2021-08-04 セイコーエプソン株式会社 挿入方法
US10363661B2 (en) * 2016-07-27 2019-07-30 Seiko Epson Corporation Control device, robot, and robot system
CN106272416B (zh) * 2016-08-29 2020-12-29 上海交通大学 基于力觉和视觉的机器人细长轴精密装配系统及方法
CN106737688B (zh) * 2017-01-21 2020-07-10 中国东方电气集团有限公司 一种基于多传感器的集箱管座机器人自动装配系统和方法
EP3366433B1 (de) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Verfahren zur steuerung eines roboters, verfahren zum lehren eines roboters und robotersystem
KR102113462B1 (ko) 2017-02-09 2020-05-21 미쓰비시덴키 가부시키가이샤 위치 제어 장치 및 위치 제어 방법
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
JP6998503B2 (ja) * 2017-07-20 2022-01-18 パナソニックIpマネジメント株式会社 電子機器組立装置及び電子機器組立方法
CN108284388B (zh) * 2017-12-26 2019-09-27 华中科技大学 一种视觉引导的智能力控磨抛装置
JP6458912B1 (ja) * 2018-01-24 2019-01-30 三菱電機株式会社 位置制御装置及び位置制御方法
CN111757796B (zh) * 2018-02-23 2023-09-29 仓敷纺绩株式会社 线状物的前端移动方法、控制装置以及三维照相机
CN108237400A (zh) * 2018-04-17 2018-07-03 深圳市广晟德科技发展有限公司 一种四轴机械手自动组装系统
JP6849631B2 (ja) * 2018-04-23 2021-03-24 ファナック株式会社 作業ロボットシステムおよび作業ロボット
CN110253577B (zh) * 2019-06-19 2021-04-06 山东大学 基于机器人操作技能获得的弱刚度零部件装配系统及方法
CN110549331B (zh) * 2019-07-16 2024-05-03 浙江工业大学 精密孔轴自动装配的方法和设备
JP7351667B2 (ja) 2019-08-01 2023-09-27 ファナック株式会社 複数点嵌合を行うロボット制御システム、制御方法、コンピュータのプログラム、および制御装置
JP2021030359A (ja) * 2019-08-22 2021-03-01 オムロン株式会社 制御装置、制御方法、及び制御プログラム
CN110455802B (zh) * 2019-08-27 2023-05-12 江苏金恒信息科技股份有限公司 基于视觉识别的合金分析装置及方法
US11701776B2 (en) * 2019-10-25 2023-07-18 Dexterity, Inc. Robotic kitting machine
CN112589808B (zh) * 2020-12-02 2023-02-14 亿嘉和科技股份有限公司 一种钥匙插拔机构
CN112548516B (zh) * 2020-12-04 2021-10-29 浙江师范大学 一种基于视觉的花键自动装配系统及方法
JP7481247B2 (ja) 2020-12-11 2024-05-10 ファナック株式会社 ロボット教示システム
CN112809667B (zh) * 2020-12-22 2022-11-25 上海新时达机器人有限公司 工业机器人的力控制方法、装置及其应用
US20220395940A1 (en) * 2021-06-09 2022-12-15 Honda Motor Co., Ltd. Apparatus and method to press articles on components of vehicle assembly
CN114523475A (zh) * 2022-03-01 2022-05-24 南京理工大学 一种机器人装配系统误差自动标定与补偿装置及方法
CN114714354B (zh) * 2022-04-12 2023-10-03 清华大学 视觉模组装置和机械臂
WO2024084369A1 (en) * 2022-10-17 2024-04-25 Aisapack Holding Sa Self-adaptive method for the orientation of components

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3893217A (en) * 1974-12-13 1975-07-08 Bendix Corp System and method for automatic insertion of pins in holes
DE2549898A1 (de) * 1975-11-06 1977-05-12 Siemens Ag Industrie-roboter
US5608847A (en) * 1981-05-11 1997-03-04 Sensor Adaptive Machines, Inc. Vision target based assembly
US4453085A (en) * 1981-05-11 1984-06-05 Diffracto Ltd. Electro-optical systems for control of robots, manipulator arms and co-ordinate measuring machines
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
US4654949A (en) * 1982-02-16 1987-04-07 Diffracto Ltd. Method for automatically handling, assembling and working on objects
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
GB2128772A (en) * 1982-10-18 1984-05-02 Philips Electronic Associated Automatic assembly apparatus
US4628464A (en) * 1983-10-07 1986-12-09 Westinghouse Electric Corp. Robotic system for mounting electrical components
CA1233222A (en) * 1984-03-09 1988-02-23 Nobuhiko Onda Movable apparatus driving system
US4573271A (en) * 1984-03-14 1986-03-04 General Motors Corporation Machine performance sensor
FR2591929A1 (fr) * 1985-12-19 1987-06-26 Photonetics Procede et dispositif de positionnement d'un robot a l'aide de moyens optiques
US4894901A (en) * 1986-12-22 1990-01-23 The Boeing Company Method for positioning a robotic work system
US4884329A (en) * 1987-02-20 1989-12-05 Research Development Corporation Precision automatic assembly apparatus, with electromagnetically supported member and assembly method using same
JPS63288683A (ja) * 1987-05-21 1988-11-25 株式会社東芝 組立てロボット
US4833383A (en) * 1987-08-13 1989-05-23 Iowa State University Research Foundation, Inc. Means and method of camera space manipulation
JPH01107933A (ja) * 1987-10-20 1989-04-25 Fujitsu Ltd 線材自動フォーミング・挿人システム
US4890918A (en) * 1988-09-15 1990-01-02 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Docking alignment system
JPH02256430A (ja) * 1989-03-29 1990-10-17 Mitsubishi Electric Corp 自動組立装置および方法
US5181823A (en) * 1989-10-27 1993-01-26 Grumman Aerospace Corporation Apparatus and method for producing a video display
US5319443A (en) * 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
JPH05152794A (ja) * 1991-11-29 1993-06-18 Sharp Corp Icチツプ実装装置
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
JPH06175716A (ja) * 1992-12-10 1994-06-24 Fanuc Ltd マニピュレータの物体把持作業における位置・姿勢補正方法
JP3352173B2 (ja) * 1993-09-27 2002-12-03 マツダ株式会社 ロボットの制御装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017007028B4 (de) 2017-02-09 2023-06-15 Mitsubishi Electric Corporation Positionskontrollvorrichtung und Positionskontrollverfahren
DE102019131401B3 (de) * 2019-11-21 2020-10-29 Franka Emika Gmbh Kalibrierung einer Impedanzregelung eines Robotermanipulators

Also Published As

Publication number Publication date
DE69736348D1 (de) 2006-08-31
EP0884141A1 (de) 1998-12-16
EP0884141A4 (de) 2003-05-07
US6141863A (en) 2000-11-07
WO1998017444A1 (fr) 1998-04-30
EP0884141B1 (de) 2006-07-19

Similar Documents

Publication Publication Date Title
DE69736348T2 (de) Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten
DE69637413T2 (de) Kompositdetektionssystem für roboter
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
EP1345099B1 (de) Verfahren zur Bestimmung der Lage eines Objektes und eines Werkstücks im Raum zur automatischen Montage des Werkstücks am Objekt
DE102010023736B4 (de) Robotersystem mit Problemerkennungsfunktion
DE102017117837A1 (de) Laserbearbeitungs-Robotersystem und Laserbearbeitungsverfahren
EP2663963B1 (de) Vorrichtung und verfahren zum erfassen der lage eines objekts in einer werkzeugmaschine
EP1537008A2 (de) Verfahren und vorrichtung zum herstellen eines verbindungsbereichs auf einem werkstück
DE102019131284B4 (de) Robotersystem und Koordinatenumwandlungsverfahren
DE102018125841B4 (de) Roboter, Robotersystem und Verfahren zum Festlegen eines Koordinatensystems eines Roboters
DE102018007287B4 (de) Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
DE102018122627A1 (de) Messsystem
EP1398094B1 (de) Verfahren und Vorrichtung zur Bestimmung der Schenkellänge an einem Biegeteil
DE19849720A1 (de) Verfahren und Greifersystem zur Durchführung des Verfahrens zur präzisen Handhabung und Montage von kleinen Bauteilen
DE3624959C2 (de)
EP2356400B1 (de) Roboter zur automatischen 3d-vermessung und verfahren
EP1468792A2 (de) Verfahren zum Kalibrieren eines Roboters
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
EP3584041A1 (de) Verfahren zum verbinden von bauteilen
EP1471401B1 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
DE10112445C2 (de) Verfahren zum Schneiden von zu fügenden Bauteilen mit Laserstrahlung
DE10327479A1 (de) Einrichtung zur Bestimmung der Position eines Werkstücks und Verfahren dafür unter Verwendung von mindestens einer elektronischen Kamera
EP1635972A1 (de) Verfahren und vorrichtung zum umformen von werkstücken
EP3083159A1 (de) Positioniereinrichtung

Legal Events

Date Code Title Description
8363 Opposition against the patent
8331 Complete revocation