DE102010032840A1 - Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters - Google Patents

Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters Download PDF

Info

Publication number
DE102010032840A1
DE102010032840A1 DE102010032840A DE102010032840A DE102010032840A1 DE 102010032840 A1 DE102010032840 A1 DE 102010032840A1 DE 102010032840 A DE102010032840 A DE 102010032840A DE 102010032840 A DE102010032840 A DE 102010032840A DE 102010032840 A1 DE102010032840 A1 DE 102010032840A1
Authority
DE
Germany
Prior art keywords
robot
tool
storage section
measuring
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010032840A
Other languages
English (en)
Other versions
DE102010032840B4 (de
Inventor
Kazunori Oshino-mura Ban
Katsutoshi Oshino-mura Takizawa
Gang Oshino-mura Shen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102010032840A1 publication Critical patent/DE102010032840A1/de
Application granted granted Critical
Publication of DE102010032840B4 publication Critical patent/DE102010032840B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)

Abstract

Eine Messvorrichtung zum Bestimmen einer Position eines Werkzeugmittelpunktes (31) eines Werkzeugs (30), das an einer Werkzeuganbaufläche (32) eines Roboters (1) angebracht ist, bezüglich der Werkzeuganbaufläche (32), weist auf: eine Kamera (4), die am vorderen Armabschnitt des Roboters (1) angebracht ist; einen in einem Arbeitsraum des Roboters (1) angeordneten Abtastpunkt (Ursprung von Σm); einen Messabschnitt (11a) zum Messen der Position des Abtastpunktes durch Verwenden des Roboters und der Kamera; einen ersten Speicherabschnitt (12a) zum Speichern der gemessenen Position Abtastpunktes; einen zweiten Speicherabschnitt (12b) zum Speichern einer Position des Roboters (1), wenn der Werkzeugmittelpunkt durch Bewegen des Roboters auf den Abtastpunkt ausgerichtet ist; und einen Berechnungsabschnitt (11b) zum Berechnen der Position des Werkzeugmittelpunktes bezüglich der Werkzeuganbaufläche des Roboters, indem die gespeicherten Positionen Abtastpunktes und des Roboters verwendet werden. Deshalb wird die Position des Werkzeugmittelpunktes bezüglich der Werkzeuganbaufläche mit hoher Genauigkeit innerhalb kurzer Zeit ohne Verwenden einer Ersatzlehre gemessen.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Messverfahren zum Messen einer Position eines Werkzeugmittelpunktes eines Roboters und eine Messvorrichtung zum Implementieren eines solchen Verfahrens.
  • 2. Beschreibung der verwandten Technik
  • Beim Einsatz eines Industrieroboters wird eine Position eines Werkzeugmittelpunktes (englisch: tool centre point; TCP) bezüglich einer Werkzeuganbaufläche des Roboters gemessen. Die Messung des Werkzeugmittelpunktes ist eine unverzichtbare und wichtige Operation, die überwiegend nach einer von zwei Möglichkeiten ausgeführt wird.
  • In der japanischen Offenlegungsschrift Nr. H08-85083 positioniert ein Bediener einen Werkzeugmittelpunkt an einem vorderen Ende eines Roboters in einem bestimmten Punkt in einem Raum mit einer Mehrzahl Werkzeugorientierungen, um die Position des Werkzeugmittelpunktes mittels einer Mehrzahl Positionierungspositionen zu berechnen. In diesem Fall kann die Position des Werkzeugmittelpunktes ohne Speziallehren und dgl. berechnet werden. Gemäß der japanischen Offenlegungsschrift Nr. H08-85083 hängen jedoch die Einstellgenauigkeit des Werkzeugmittelpunktes und die für die Einstelloperation erforderliche Zeit von der Qualifikation des Bedieners ab und sind nicht immer stabil.
  • Das japanische Patent Nr. 4191080 offenbart ein Verfahren zur automatischen Messung einer Position eines Werkzeugmittelpunktes durch Verwendung eines Abbildungsgeräts, z. B. einer Kamera. In diesem Fall können eine stabile Einstellgenauigkeit und ein stabiler Zeitaufwand ohne Abhängigkeit von der Qualifikation des Bedieners erreicht werden. Ferner sind in den japanischen Patenten Nr. 4021413 und Nr. 3394322 sowie in dem Artikel "An efficient und accurate Kamera calibration technique for 3d machine vision", von Roger Y. Tsai, Proc. Computer Vision und Pattern Recognition '86, S. 364 bis 374, 1986, Messtechniken offenbart, bei denen der Roboter und die Kamera verwendet werden.
  • Allerdings wird im japanischen Patent Nr. 4191080 ein Abbildungsgerät, wie beispielsweise eine Kamera, benötigt. Ferner wird im japanischen Patent Nr. 4191080 eine den Werkzeugmittelpunkt ersetzende Speziallehre benötigt, wenn es schwierig ist, den Einstellpunkt des Werkzeugmittelpunktes mittels des Abbildungsgeräts zu messen. Wenn ferner eine solche Speziallehre verwendet wird, verringert ein eventueller Lagefehler zwischen dem Messpunkt auf der Speziallehre und der tatsächlichen Einstellposition des Werkzeugmittelpunktes die Einstellgenauigkeit des Werkzeugmittelpunktes.
  • Die vorliegende Erfindung ist angesichts der obigen Gegebenheiten erarbeitet worden und hat die Aufgabe, ein Messverfahren bereitzustellen, das eine Position eines Werkzeugmittelpunktes bezüglich einer Werkzeuganbaufläche mit hoher Genauigkeit rasch messen kann, ohne dass eine Speziallehre anstelle des Werkzeugmittelpunktes verwendet wird, sowie eine Messvorrichtung zum Implementieren eines solchen Verfahrens.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Zur Lösung der oben beschriebenen Aufgabe wird gemäß eines ersten Aspektes eine Messvorrichtung zum Bestimmen einer Position eines Werkzeugmittelpunktes eines Werkzeugs, das an einer Werkzeuganbaufläche eines vorderen Armabschnitts eines Roboters angebracht ist, bezüglich der Werkzeuganbaufläche bereitgestellt, wobei die Messvorrichtung aufweist: eine Kamera, die am vorderen Armabschnitt des Roboters angebracht ist; einen in einem Arbeitsraum des Roboters angeordneten Abtastpunkt; einen Messabschnitt zum Messen der Position des Abtastpunktes durch Verwenden des Roboters und der Kamera; einen Messergebnis-Speicherabschnitt zum Speichern der Position des vom Messabschnitt gemessenen Abtastpunktes; einen Ausrichtergebnis-Speicherabschnitt zum Speichern einer Position des Roboters, wenn der Werkzeugmittelpunkt durch Bewegen des Roboters auf den Abtastpunkt ausgerichtet ist; und einen Werkzeugmittelpunktpositions-Berechnungsabschnitt zum Berechnen der Position des Werkzeugmittelpunktes bezüglich der Werkzeuganbaufläche des Roboters, indem die Position des im Messergebnis-Speicherabschnitt gespeicherten Abtastpunktes und die im Ausrichtergebnis-Speicherabschnitt gespeicherte Position des Roboters verwendet werden.
  • Gemäß einem zweiten Aspekt wird eine Messvorrichtung zum Bestimmen einer Position eines Werkzeugmittelpunktes eines Werkzeugs, das an einer Werkzeuganbaufläche eines vorderen Armabschnitts eines Roboters angebracht ist, bezüglich der Werkzeuganbaufläche bereitgestellt, wobei die Messvorrichtung aufweist: eine Kamera, die am vorderen Armabschnitt des Roboters angebracht ist; und ein Messziel, das in einem Arbeitsraum des Roboters angeordnet ist, wobei das Messziel einen Abtastpunkt aufweist, dessen Position bezüglich des Messziels bekannt ist, und wobei die Messvorrichtung ferner aufweist: einen Speicherabschnitt zum Speichern der Position des Abtastpunktes bezüglich des Messziels im Voraus; einen Messabschnitt zum Messen von Position und Ausrichtung des Ziels durch Verwenden des Roboters und der Kamera; einen Messergebnis-Speicherabschnitt zum Speichern der vom Messabschnitt gemessenen Position und Ausrichtung; einen Ausrichtergebnis-Speicherabschnitt zum Speichern der Position des Roboters, wenn der Werkzeugmittelpunkt durch Bewegen des Roboters auf den Abtastpunkt ausgerichtet ist; und einen Werkzeugmittelpunktpositions-Berechnungsabschnitt zum Berechnen der Position des Werkzeugmittelpunktes bezüglich der Werkzeuganbaufläche des Roboters durch Verwenden von Position und Ausrichtung des Ziels, die im Messergebnis-Speicherabschnitt gespeichert sind, wobei die Position des Roboters im Ausrichtergebnis-Speicherabschnitt und die Position des Abtastpunktes im Speicherabschnitt gespeichert ist.
  • Gemäß einem dritten Aspekt weist das Ziel wie beim zweiten Aspekt Messobjekte auf, deren Größe und relative Position bekannt sind und die in einer Matrix angeordnet sind.
  • Gemäß einem vierten Aspekt weist das Ziel wie beim zweiten Aspekt drei Messobjekte auf, deren Größe und relative Position bekannt sind, und die nicht zueinander in Reihe angeordnet sind.
  • Gemäß einem fünften Aspekt wird ein Messverfahren zum Bestimmen einer Position eines Werkzeugmittelpunktes eines Werkzeugs, das an einer Werkzeuganbaufläche eines vorderen Armabschnitts eines Roboters angebracht ist, bezüglich der Werkzeuganbaufläche bereitgestellt, das die Schritte aufweist: Messen einer Position eines in einem Arbeitsraum des Roboters angeordneten Abtastpunktes unter Verwenden des Roboters und einer am vorderen Armabschnitt angebrachten Kamera; Speichern der gemessenen Position des Abtastpunktes in einem Messergebnis-Speicherabschnitt; Ausrichten des Werkzeugmittelpunktes nach Bewegen des Roboters auf den Abtastpunkt; Speichern einer Position des Roboters, wenn der Werkzeugmittelpunkt auf den Abtastpunkt ausgerichtet ist, in einem Ausrichtergebnis-Speicherabschnitt; und Bestimmen der Position des Werkzeugmittelpunktes bezüglich der Werkzeuganbaufläche des Roboters durch Verwenden der im Messergebnis-Speicherabschnitt gespeicherten Position des Abtastpunktes und der im Ausrichtergebnis-Speicherabschnitt gespeicherten Position des Roboters.
  • Gemäß einem sechsten Aspekt wird ein Messverfahren zum Bestimmen einer Position eines Werkzeugmittelpunktes eines Werkzeugs, das an einer Werkzeuganbaufläche eines vorderen Armabschnitts eines Roboters angebracht ist, bezüglich der Werkzeuganbaufläche bereitgestellt, das die Schritte aufweist: Speichern einer Position eines Abtastpunktes, dessen Position in einem Koordinatensystem bekannt ist, das an einem im Arbeitsraum des Roboters angeordneten Messziel fixiert ist, in einem Speicherabschnitt; Messen der Position und Ausrichtung des Ziels im am Ziel fixierten Koordinatensystem unter Verwenden des Roboters und einer am vorderen Armabschnitt des Roboters angebrachten Kamera; Speichern der gemessenen Position und Ausrichten des Ziels in einem Messergebnis-Speicherabschnitt; Ausrichten des Werkzeugmittelpunktes nach Bewegen des Roboters auf den Abtastpunkt; Speichern der Position des Roboters in einem Ausrichtergebnis-Speicherabschnitt, wenn der Werkzeugmittelpunkt auf den Abtastpunkt ausgerichtet ist; und Berechnen der Position des Werkzeugmittelpunktes bezüglich der Werkzeuganbaufläche des Roboters durch Verwenden von Position und Ausrichtung des Ziels, die im Messergebnis-Speicherabschnitt gespeichert sind, wobei die Position des Roboters im Ausrichtergebnis-Speicherabschnitt und die Position des Abtastpunktes im Koordinatensystem im Speicherabschnitt gespeichert ist.
  • Diese und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung erschließen sich anhand der detaillierten Beschreibung von Ausführungsbeispielen, wie sie in den Zeichnungen dargestellt sind.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Diagramm der Gesamtkonfiguration einer Messvorrichtung in einer ersten Ausführungsform der vorliegenden Erfindung;
  • 2 ist ein Blockdiagramm einer Robotersteuerung, die in der vorliegenden
  • Erfindung verwendet wird;
  • 3 ist ein Blockdiagramm eines in der vorliegenden Erfindung verwendeten Bildverarbeitungsgeräts;
  • 4 ist ein Flussdiagramm, das einen in der vorliegenden Erfindung ausgeführten Prozess schematisch darstellt;
  • 5 ist ein Diagramm, das einen Zustand darstellt, in dem ein Werkzeugmittelpunkt aus dem Zustand von of 1 bewegt und auf einen Abtastpunkt eines Ziels ausgerichtet wird;
  • 6 ist ein Diagramm der Gesamtkonfiguration einer Messvorrichtung in einer zweiten Ausführungsform der vorliegenden Erfindung;
  • 7 ist ein Diagramm, das einen Zustand darstellt, in dem ein Werkzeugmittelpunkt aus dem Zustand von 6 bewegt und auf einen Abtastpunkt eines Ziels ausgerichtet wird; und
  • 8 ist eine vergrößerte Ansicht eines Ziels eines anderen Typs, das in der zweiten Ausführungsform der vorliegenden Erfindung verwendet wird.
  • DETAILLIERTE BESCHREIBUNG
  • Im Folgenden werden die Ausführungsformen der vorliegenden Erfindung anhand der beiliegenden Zeichnungen beschrieben. In den Zeichnungen sind gleiche Element mit identischen Bezugszeichen gekennzeichnet. Zum besseren Verständnis ist der Maßstab der Zeichnungen geeignet geändert worden.
  • 1 ist ein Diagramm der Gesamtkonfiguration einer Messvorrichtung in einer ersten Ausführungsform der vorliegenden Erfindung. Wie in 1 dargestellt handelt es sich bei einem Roboter 1 um einen allgemein bekannten Roboter, wie z. B. um einen Gelenkroboter mit sechs Achsen. Der Roboter 1 hat einen Armabschnitt 1a und einen Sockelabschnitt 1b. Der Roboter 1 ist mit einer Robotersteuerung 5 zum Steuern des Roboters 1 verbunden.
  • Ein Werkzeug 30 ist einem vorderen Endabschnitt oder einer Werkzeuganbaufläche 32 des Armabschnitts 1a angebracht. Das in 1 dargestellte Werkzeug 30 ist in einem stumpfen Winkel gebogen. Eine Kamera 4 ist daneben in der Nähe des vorderen Endes des Werkzeugs 30 angebracht. Wie aus der Figur ersichtlich ist, verläuft bei der ersten Ausführungsform eine Sichtlinie 40 der Kamera 4 parallel zum vorderen Abschnitt des Werkzeugs.
  • Wie in 1 dargestellt sind beim Roboter 1 ein Roboter-Koordinatensystem Σb, das an einem Sockelabschnitt 1b fixiert ist, und ein mechanisches Schnittstellen-Koordinatensystem Σf, das an der Werkzeuganbaufläche 32 fixiert ist, definiert. Die Robotersteuerung 5 kann eine Position und Ausrichtung (eine aktuelle Position) eines Ursprungs des mechanischen Schnittstellen-Koordinatensystems Σf jederzeit erkennen. Ferner ist ein Lernbedienungsfeld 18 mit hinreichend bekannten manuellen Betätigungstasten mit der Robotersteuerung 5 verbunden, so dass ein Bediener den Roboter 1 über die manuellen Betätigungstasten betätigen kann.
  • Die Kamera 4 ist z. B. eine CCD-Kamera, bei der es sich um ein hinreichend bekanntes Licht empfangendes Gerät handelt, das die Funktion des Erfassens eines zweidimensionalen Bildes auf einer Licht empfangenden Oberfläche (CCD-Matrixoberfläche) hat. Die Kamera 4 ist mit einem Bildverarbeitungsgerät 2 verbunden, das einen Monitor 3 wie eine LCD, CRT und dgl. aufweist. Bei der ersten Ausführungsform nimmt die Kamera 4 ein Bild einer Markierung 7 auf einem Ziel 6 auf, das in einem vom Roboter-Koordinatensystem Σb repräsentierten Raum fixiert ist. Das Ziel 6 ist z. B. eine Metallsäule mit einer in ihrer Stirnfläche ausgebildeten kreuzförmigen Nut. Das Ziel 6 kann jedoch andere Formen haben, vorausgesetzt, sein Mittelpunkt kann identifiziert werden.
  • 2 ist a Blockdiagramm der bei der vorliegenden Erfindung verwendeten Robotersteuerung. Wie in 2 dargestellt enthält die Robotersteuerung 5 eine Haupt-CPU 11 (im Folgenden einfach als CPU bezeichnet). Die Haupt-CPU 11 fungiert als ein Messabschnitt 11a zum Messen einer Position eines in einem Arbeitsraum des Roboters angeordneten Abtastpunktes durch Verwenden des Roboters 1 und der Kamera 4 und hat einen Werkzeugmittelpunktpositions-Berechnungsabschnitt 11b zum Berechnen einer Position eines Werkzeugmittelpunktes 31 bezüglich der Werkzeuganbaufläche 32 des Roboters 1.
  • Ein Speicher 12 wie ein RAM, ein ROM, ein nicht flüchtiger Speicher und dgl., eine Lernbedienungsfeld-Schnittstelle 13, eine Eingabe-/Ausgabe-Schnittstelle 16 für externe Geräte, ein Servosteuerabschnitt 15 und eine Kommunikationsschnittstelle 14 sind parallel zu einem Bus 17, der aus der Haupt-CPU 11 herausgeführt wird, angeschlossen.
  • Das Lernbedienungsfeld 18 ist mit einer Lernbedienungsfeld-Schnittstelle 13 verbunden. Der Bediener betätigt das Lernbedienungsfeld 18, um die Generierung, Korrektur und Registrierung von Roboterbetriebsprogrammen, die Einstellung verschiedener Parameter sowie die Wiedergabeoperation, den Kriechvorschub und dgl. der gelernten Betriebsprogramme auszuführen.
  • Systemprogramme, die die Grundfunktionen des Roboters und der Robotersteuerung unterstützen, sind im ROM im Speicher 12 gespeichert. Ferner sind die Roboterbetriebsprogramme und zugehörige Konfigurationsdaten, die gemäß den Anwendungen gelernt werden, im nicht flüchtigen Speicher im Speicher 12 gespeichert. Programme und Daten wie Parameter und dgl. für die nachstehend beschriebenen Prozesse (Roboterbewegung in Zusammenhang mit der Bestimmung von Mechanismusparametern, Kommunikationsprozesse mit dem Bildverarbeitungsgerät usw.) sind ebenfalls im nicht flüchtigen Speicher im Speicher 12 gespeichert. Der RAM im Speicher 12 dient als Speicherbereich für die vorübergehende Speicherung von Daten bei den von der CPU ausgeführten verschiedenen Berechnungen.
  • Wie weiter aus der Figur zu ersehen ist, weist der Speicher 12 auf: einen Messergebnis-Speicherabschnitt 12a zum Speichern der vom Messabschnitt 11a gemessenen Position des Abtastpunktes; einen Ausrichtergebnis-Speicherabschnitt 12b zum Speichern einer Position des Roboters 1, wenn der Werkzeugmittelpunkt 31 auf den Abtastpunkt ausgerichtet ist; und einen Speicherabschnitt 12c zum Speichern der Position des Abtastpunktes in dem relativ zu einem Messziel 600 fixierten Koordinatensystem.
  • Ein Servosteuerabschnitt 15 weist Servosteuerungen #1 bis #n auf (wobei n die Gesamtzahl der Achsen des Roboters ist und hier n = 6 angenommen wird). Der Servosteuerabschnitt 15 empfängt Bewegungsbefehle, die durch die Berechnungen zum Steuern des Roboters erzeugt werden (Erstellung der Bewegungsbahnplanung und Interpolation, inverse Transformation und dgl. auf Basis der Bahnplanung) und gibt Drehmomentbefehle an die Servoverstärker A1 bis An entsprechend den von an den jeweiligen Achsen angebrachten Impulscodierern (nicht dargestellt) empfangenen Rückkopplungssignalen aus. Auf Basis der Drehmomentbefehle liefern die Servoverstärker A1 bis An Ströme zum Ansteuern der Servomotoren der jeweiligen Achsen. Die Kommunikationsschnittstelle 14 ist mit dem Bildverarbeitungsgerät 2 verbunden. (Siehe 1.) Über diese Kommunikationsschnittstelle 14 werden Befehle, Messergebnisdaten und dgl. bezüglich der nachstehend beschriebenen Messung zwischen der Robotersteuerung 5 und dem Bildverarbeitungsgerät 2 übertragen.
  • 3 ist ein Blockdiagramm des bei der vorliegenden Erfindung verwendeten Bildverarbeitungsgeräts. Wie in 3 dargestellt hat ein Bildverarbeitungsgerät 2 eine CPU 20, bei der es sich um einen Mikroprozessor handelt. Ein ROM 21, ein Bildprozessor 22, eine Kameraschnittstelle 23, eine Monitorschnittstelle 24, ein Eingabe-/Ausgabegerät (I/O) 25, ein Einzelbildspeicher (Bildspeicher) 26, ein nicht flüchtiger Speicher 27, ein RAM 28 und eine Kommunikationsschnittstelle 29 sind über eine Busleitung 39 mit der CPU 20 verbunden.
  • Die Kamera 4, die ein Abbildungsmittel ist (eine CCD-Kamera), ist mit einer Kameraschnittstelle 23 verbunden. Sobald ein Bildaufnahmebefehl über die Kameraschnittstelle 23 gesendet wird, nimmt die Kamera 4 ein Bild durch Einsatz einer in der Kamera vorgesehenen elektronischen Blendenfunktion auf. Dann wird ein Bildsignal in Form eines Grauskalensignals über die Kameraschnittstelle 23 im Einzelbildspeicher 26 gespeichert.
  • Eine Anzeige wie eine CRT, LCD und dgl. ist als Monitor 3 mit der Monitorschnittstelle 24 verbunden. (Siehe 1.) Aktuell von der Kamera aufgenommene Bilder, im Einzelbildspeicher 26 gespeicherte frühere Bilder, vom Bildprozessor 22 verarbeitete Bilder und dgl. werden wie erforderlich angezeigt.
  • Die in 1 dargestellte Kamera 4 nimmt das Bild der Markierung 7 auf dem Ziel 6 auf, das in dem vom Roboter-Koordinatensystem Σb repräsentierten Raum fixiert ist. Das Bildsignal der Markierung 7, das im Einzelbildspeicher 26 gespeichert ist, wird vom Bildprozessor 22 analysiert, um ihre zweidimensional Position, Größe und dgl. zu bestimmen. Programme, Parameter und dgl. für diesen Zweck sind im nicht flüchtigen Speicher 27 gespeichert. Ferner wird der RAM 28 zur vorübergehenden Speicherung von Daten verwendet, die für die verschiedenen von der CPU 20 ausgeführten Prozesse erforderlich sind. Die Kommunikationsschnittstelle 29 ist mit der Robotersteuerung über die Kommunikationsschnittstelle 14 der oben beschriebenen Robotersteuerung verbunden.
  • Die Sichtlinie 40 der Kamera 4 in 1 ist eine Gerade von einem repräsentativen Punkt der Kamera 4 (z. B. Mittelpunkt des Kameraobjektivs) zum Ziel 6. Ein in 1 dargestelltes Koordinatensystem Σv repräsentiert die Sichtlinie 40 vom repräsentativen Punkt der Kamera 4 (z. B. Mittelpunkt des Kameraobjetivs) zum Ziel 6, wobei angenommen wird, dass sein Ursprung auf der Sichtlinie 40 liegt und eine Koordinatenachse (z. B. die Z-Achse) mit der Sichtlinie 40 zusammenfällt.
  • Das mechanische Schnittstellen-Koordinatensystem Σf repräsentiert nicht nur die Position und Ausrichtung der oben beschriebenen Werkzeuganbaufläche 32, sondern auch ”die Position und Ausrichtung des Roboters 1”. Mit anderen Worten, es wird angenommen, dass ”die Roboterposition” ”eine Position des Ursprungs des mechanischen Schnittstellen-Koordinatensystems Σf im Roboter Koordinatensystem Σb” ist, sofern nicht anderweitig angegeben. Wenn die Ausrichtung berücksichtigt wird, bezieht sie sich auf ”eine Position und Ausrichtung des Ursprungs des mechanischen Schnittstellen-Koordinatensystems Σf im Roboter-Koordinatensystem Σb”.
  • 4 ist ein Flussdiagramm, das den bei der vorliegenden Erfindung ausgeführten Prozess schematisch darstellt. Im Folgenden wird anhand von 4 eine Kalibrierprozedur der Messvorrichtung gemäß der vorliegenden Erfindung beschrieben. Bei der in 1 dargestellten Konfiguration wird angenommen, dass der Abtastpunkt (touch-up point; TUP) in einem Ursprung eines Koordinatensystem Σm im Ziel 6 liegt.
  • Schritt T1
  • Bei der vorliegenden Erfindung verwendet der Messabschnitt 11a eine Kamera 4 zum Messen der Position des Ursprungs (Xm, Ym, Zm) des am Ziel 6 fixierten Koordinatensystems Σm oder, mit anderen Worten, der Position des Abtastpunktes. Zum Messen dieser Position kann ein allgemein bekanntes Messverfahren angewendet werden, das im japanischen Patent Nr. 4021413 der Anmelderin der vorliegenden Erfindung beschrieben wird. Bei diesem Messverfahren ist die Kamera am vorderen Abschnitt des Roboterarms angebracht und bestimmt die Anbauposition sowie die Richtung der Sichtlinie der Kamera ohne Kalibrierung der Kamera. Dann wird eine Referenzpunktposition auf einem in einem Arbeitsraum des Roboters angeordneten Werkstück durch eine Stereomessung gemessen. Die Position des Ursprungs (Xm, Ym, Zm) des am Ziel 6 fixierten Koordinatensystems Σm kann durch andere Techniken gemessen werden.
  • Schritt T2
  • In Schritt T2 wird die Position des in Schritt T1 bestimmten Ursprungs (Xm, Ym, Zm) des Ziels 6 im Messergebnis-Speicherabschnitt 12a als die Position des Abtastpunktes gespeichert.
  • Schritt T3
  • Der Bediener richtet dann den Werkzeugmittelpunkt 31 auf den Ursprung des Ziels 6 oder den Abtastpunkt visuell aus. (Siehe 5.) Alternativ kann der Roboter 1 den Werkzeugmittelpunkt 31 automatisch auf den Ursprung des Ziels 6 ausrichten.
  • Schritt T4
  • In Schritt T4 wird die in Schritt T3 ausgerichtete Position des Roboters im Ausrichtergebnis-Speicherabschnitt 12b gespeichert.
  • Schritt T5
  • In Schritt T5 berechnet der Werkzeugmittelpunktpositions-Berechnungsabschnitt 11b die Position des Werkzeugmittelpunktes 31 auf Basis der im Messergebnis-Speicherabschnitt 12a bzw. Ausrichtergebnis-Speicherabschnitt 12b gespeicherten Position des Abtastpunktes und der Position des Roboters gemäß dem folgenden Algorithmus.
  • Die in Schritt T2 gespeicherte Position des Abtastpunktes ist (Xm, Ym, Zm). Die Ausrichtung des Abtastpunktes ist undefiniert und wird auf (0, 0, 0) eingestellt. Eine homogene 4×4-Transformationsmatrix [M] entsprechend der Position und Ausrichtung des Abtastpunktes (Xm, Ym, Zm, 0, 0, 0) wird durch Gleichung 1 repräsentiert:
    Figure 00100001
  • Aus der in Schritt T4 im Ausrichtergebnis-Speicherabschnitt 12b gespeicherten Roboterposition werden dann die Position und Ausrichtung des mechanischen Schnittstellen-Koordinatensystems Σf durch die homogene 4×4-Transformationsmatrix [F] mit der folgenden Gleichung 2 ausgedrückt:
    Figure 00100002
    dabei ist [RF] eine 3×3-Rotationsmatrix entsprechend einem Ausrichtungswinkel des Koordinatensystems Σf.
  • Dann wird eine homogene 4×4-Transformationsmatrix entsprechend der Position und Ausrichtung eines Koordinatensystems Σt, dessen Ursprung der Werkzeugmittelpunkt im mechanischen Schnittstellen-Koordinatensystem Σf ist, als [T] definiert. (Siehe Gleichung 4.) Da in diesem Fall gilt, [M] = [F][T], kann [T] aus der folgenden Gleichung 3 berechnet werden: [T] = [F]–1[M] Gleichung 3
    Figure 00110001
    dabei ist [RT] in Gleichung 4 eine 3×3-Rotationsmatrix entsprechend einem Ausrichtungswinkel des Koordinatensystems Σt. Ferner repräsentieren die Komponenten (Xt, Yt, Zt) in der Matrix T von Gleichung 4 die Position des Werkzeugmittelpunktes im mechanischen Schnittstellen-Koordinationssystem Σf.
  • Wie oben beschrieben kann bei der vorliegenden Erfindung die Position des Werkzeugmittelpunktes 31 automatisch gemessen werden, indem der kontaklose Messabschnitt, z. B. die Kamera 4, verwendet wird. Ferner ist bei der vorliegenden Erfindung die Abtastoperation (Ausrichtoperation) nur ein Mal in der Messprozedur erforderlich. Daraus lässt sich ersehen, dass hochgenaue Messergebnisse innerhalb kurzer Zeit stabil erhalten werden können, wobei die Belastung des Bedieners verringert wird, keine Abhängigkeit von der Qualifikation des Bedieners besteht und kein Spezialwerkzeug anstelle des Werkzeugmittelpunktes 31 erforderlich ist.
  • Ferner wird bei der vorliegenden Erfindung die Position des Werkzeugmittelpunktes 31 indirekt durch eine Ausrichtoperation bestimmt, die der Bediener ausführen kann. Deshalb kann die vorliegende Erfindung selbst dann angewendet werden, wenn das Werkzeug 30 ein Werkzeug ist, das sich schwer direkt mittels der Kamera messen lässt, z. B. ein Schweißdraht, der aus der Spitze eines Lichtbogenschweißbrenners hervorragt, und dgl.
  • 6 ist ein Diagramm der Gesamtkonfiguration einer Messvorrichtung in einer zweiten Ausführungsform der vorliegenden Erfindung. Ein in 6 dargestelltes Werkzeug hat eine C-förmige Konfiguration und der Werkzeugmittelpunkt 31 befindet sich innerhalb des vorderen Endes des C-förmigen Teils. Die Richtung, in der der Werkzeugmittelpunkt 31 herausragt, ist somit entgegengesetzt der Messrichtung der Kamera 4.
  • Aufgrund dieser Konfiguration des Werkzeugs bei der zweiten Ausführungsform kann der Werkzeugmittelpunkt 31 das Ziel 6 nicht direkt abtasten. In diesem Fall kann der Abtastpunkt nicht auf den Ursprung des Koordinatensystems Σm eingestellt werden, sondern auf eine Stelle, deren Position im Koordinatensystem Σm bekannt ist. In 6 wird ein plattenartiges Ziel 600 verwendet und der Abtastpunkt 81 ist in einer Ecke der unteren Oberfläche des Messziels 600 vorgesehen. Deshalb kann auch bei der zweiten Ausführungsform die Position des Werkzeugmittelpunktes 31 durch die nachstehend beschrieben Prozedur berechnet werden.
  • Eine Mehrzahl kreisförmiger Objekte wird gebildet und in einer Matrix auf der oberen Oberfläche des in 6 dargestellten Ziels 600 angeordnet. Mit anderen Worten, das Ziel 600 weist ein Punktmuster auf. Diese kreisförmigen Objekte sind als gedruckte oder gefärbte Bereiche, Ausnehmungen oder Löcher ausgebildet. Die Größen und Lagebeziehungen dieser kreisförmigen Objekte sind im Speicherabschnitt 12c gespeichert. Wie aus 6 ersichtlich ist, ist jedes dieser kreisförmigen Objekte im Vergleich zum Aufnahmesichtfeld der Kamera 4 hinreichend klein. In 6 haben ferner von der Mehrzahl kreisförmiger Objekte nur vier kreisförmige Objekte, die ein L bilden, einen größeren Durchmesser als die anderen kreisförmigen Objekte.
  • Durch Verwenden des oben beschriebenen Ziels 600 können die relative Position und Ausrichtung zwischen der Kamera und den Objekten (Kreisen) selbst dann gemessen werden, wenn die Kamera 4 zweidimensional arbeitet. Eine solche Messung wird häufig in einem Prozess verwendet, der allgemein als Kamerakalibrierung bezeichnet wird. Ein spezielles Beispiel dieser Messung ist von Roger Y. Tsai in "An efficient und accurate Kamera calibration technique for 3d machine vision", Proc. Computer Vision und Pattern Recognition '86, S. 364 bis 374, 1986, beschrieben worden. Theoretisch werden mindestens drei Messobjekte oder bei Berücksichtigung eines Fehlers des Kameraobjektivs mindestens sieben Messobjekte benötigt.
  • Durch Verwenden des Ziels 600 mit einer Gruppe kreisförmiger Objekte (Punktmuster), wie oben beschrieben, können die Kalibrierung der Kamera und die Messung des Koordinatensystems Σm gleichzeitig erfolgen. Genauer gesagt, kann eine allgemein bekannte Messtechnik wie im japanischen Patent Nr. 3394322 offenbar angewendet werden.
  • Bei der zweiten Ausführungsform kann bei Annahme, dass ein Koordinatensystem Σp im Abtastpunkt fixiert ist, eine homogene Transformationsmatrix [P, die die Position und Ausrichtung dieses Koordinatensystems Σp im Roboter-Koordinatensystem Σb ausdrückt, mit der folgenden Gleichung 5 berechnet werden: [P] = [M][S] Gleichung 5 dabei ist [S] eine homogene 4×4-Transformationsmatrix entsprechend der Position und Ausrichtung des Koordinatensystems Σp im Koordinatensystem Σm.
  • 7 ist ein Diagramm, das einen Zustand zeigt, in dem der Werkzeugmittelpunkt 31 aus dem Zustand von 6 auf den Abtastpunkt 81 des Ziels 600 ausgerichtet ist. Wie in 7 dargestellt können zuerst die Position und Ausrichtung von Σm im Koordinatensystem Σb in Schritt T1 erhalten werden, wenn die relative Position und Ausrichtung zwischen den beiden Koordinatensystemen Σm und Σp bekannt sind, und das Ziel 600 mit einer Gruppe kreisförmiger Objekte verwendet wird. Somit kann [M] bestimmt werden. Wenn [S] während der Auslegung und Herstellung des Ziels 600 im Voraus bekannt ist, kann [P] auf Basis der Gleichungen 5 und 6 auf einfache Weise wie folgt berechnet werden;
    Figure 00130001
  • Gemäß der in 7 dargestellten Abtastoperation gilt [P] = [F][T] und deshalb [T] = [F]–1[P]. Durch Anwenden dieser Gleichung wird [T] bestimmt. Wie oben beschrieben kann bei der zweiten Ausführungsform die Position des Werkzeugmittelpunktes 31 selbst dann bestimmt werden, wenn der Werkzeugmittelpunkt 31 das Ziel 600 nicht direkt abtasten kann, und eine Wirkung ähnlich wie bei der ersten Ausführungsform kann erzielt werden.
  • Ferner kann anstelle des Ziels 600 ein Ziel 800 mit drei Messobjekten 61, 62 und 63 wie in 8 dargestellt verwendet werden. Wenn jedes der Messobjekte 61, 62 und 63 einzeln gemessen wird, wird nur eine bestimmte Zone des Objektivs der Kamera 4 verwendet, und die Kamera 4 braucht deshalb nicht kalibriert zu werden. Genauer gesagt, kann eine allgemein bekannte Messtechnik gemäß dem japanischen Patent Nr. 3733364 oder Nr. 4021413 angewendet werden. Da in diesem Fall die Abstände zwischen jeweils zwei der drei Messobjekte hinreichend groß gemacht werden können, kann die Ausrichtung mit höherer Genauigkeit gemessen werden.
  • Zum Berechnen der Ausrichtung des Ziels sind die Positionen von mindestens drei Messobjekten erforderlich. Die drei Messobjekte müssen jedoch nicht in den Scheiteln bzw. Eckpunkten eines rechtwinkligen Dreiecks liegen. Es genügt, wenn die drei Messobjekte nicht zueinander in Reihe angeordnet sind. Ferner können mehr als drei Messobjekte vorgesehen sein. Ein Messfehler kann durch Mitteln mehrerer Ergebnisse verringert werden.
  • Ungeachtet, ob das Ziel 600 oder 800 verwendet wird oder nicht, kann die Ausrichtung des am Ziel fixierten Koordinatensystems mittels dieser kreisförmigen Objekte genau gemessen werden.
  • Ferner können in einer nicht dargestellten Ausführungsform diese kreisförmigen Objekte 61, 62 und 63 direkt auf einer Lehre ausgebildet sein, deren Position im Robotersystem bekannt ist. In diesem Fall kann das Ziel 600 entfallen. Obwohl in der obigen Beschreibung angenommen wird, dass die Kamera 4 zweidimensional ist, kann die Kamera 4 auch eine Stereokamera sein. Alternativ kann eine Messvorrichtung, die eine zweidimensionale Kamera und einen Laserprojektor aufweist und eine dreidimensional Messung vornehmen kann, anstelle der Kamera 4 verwendet werden. Auch in diesem Fall zeigt sich, dass die Positionseinstellung des Werkzeugmittelpunktes in ähnlicher Weise gemessen werden kann.
  • WIRKUNG DER ERFINDUNG
  • Beim ersten Aspekt wird die Position des Werkzeugmittelpunktes des Roboters durch Verwenden des berührungslosen Messabschnitts, z. B. der Kamera, automatisch gemessen und die Abtastoperation ist nur ein Mal erforderlich. Deshalb können hochgenaue Messergebnisse stabil erhalten werden, wobei die Belastung des Bedieners verringert wird und keine Abhängigkeit von der Qualifikation des Bedieners besteht. Beim ersten Aspekt misst der Messabschnitt, z. B. die Kamera, den Abtastpunkt direkt. Da ferner die Position des Werkzeugmittelpunktes durch die vom Bediener ausgeführte Abtastoperation indirekt bestimmt wird, kann die vorliegende Erfindung selbst auf ein Werkzeug angewendet werden, das sich mittels der Kamera schwer direkt messen lässt, z. B. ein Schweißdraht, der aus der Spitze eines Lichtbogenschweißbrenners hervorragt. Beim zweiten Aspekt kann eine ähnliche Wirkung wie beim ersten Aspekt selbst dann erzielt werden, wenn der Werkzeugmittelpunkt das Ziel nicht direkt abtasten kann.
  • Beim dritten Aspekt können Position und Ausrichtung des Ziels gemessen werden.
  • Da beim vierten Aspekt jedes der drei Messobjekte einzeln gemessen werden, können die Abstände zwischen jeweils zwei der drei Messobjekte hinreichend groß gemacht werden, wobei die Belastung des Bedieners verringert wird und keine Abhängigkeit von der Qualifikation des Bedieners besteht. Deshalb kann die Ausrichtung mit höherer Genauigkeit gemessen werden. Die Messobjekte sind z. B. kreisförmige Ausnehmungen oder Löcher. Die Messobjekte können auf einer Lehre in einem Robotersystem ausgebildet sein. Bei einer Ausführungsform liegen die kreisförmigen Ausnehmungen in den Eckpunkten eines Dreiecks.
  • Beim fünften Aspekt wird die Position des Werkzeugmittelpunktes des Roboters durch Verwenden eines berührungslosen Messabschnitts, z. B. der Kamera, automatisch gemessen und die Abtastoperation ist nur ein Mal erforderlich. Deshalb können hochgenaue Messergebnisse stabil erhalten werden, wobei die Belastung des Bedieners verringert wird und keine Abhängigkeit von der Qualifikation des Bedieners besteht. Beim fünften Aspekt misst der Messabschnitt, z. B. die Kamera, den Abtastpunkt direkt. Da ferner die Position des Werkzeugmittelpunktes durch die vom Bediener ausgeführte Abtastoperation indirekt bestimmt wird, kann die vorliegende Erfindung selbst auf ein Werkzeug angewendet werden, das sich mittels der Kamera schwer direkt messen lässt, z. B. ein Schweißdraht, der aus der Spitze eines Lichtbogenschweißbrenners hervorragt.
  • Beim sechsten Aspekt kann eine ähnliche Wirkung wie beim fünften Aspekt selbst dann erzielt werden, wenn der Werkzeugmittelpunkt das Ziel nicht direkt abtasten kann.
  • Obwohl die Erfindung anhand von Ausführungsbeispielen dargestellt und beschrieben worden ist, dürfte es für den Fachmann auf der Hand liegen, dass daran die obigen und verschiedene andere Änderungen, Weglassungen und Hinzufügungen vorgenommen werden können, ohne vom Gültigkeitsbereich der Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 08-85083 [0003, 0003]
    • - JP 4191080 [0004, 0005, 0005]
    • - JP 4021413 [0004, 0041, 0059]
    • - JP 3394322 [0004, 0055]
    • - JP 3733364 [0059]
  • Zitierte Nicht-Patentliteratur
    • - ”An efficient und accurate Kamera calibration technique for 3d machine vision”, von Roger Y. Tsai, Proc. Computer Vision und Pattern Recognition '86, S. 364 bis 374, 1986 [0004]
    • - Roger Y. Tsai in ”An efficient und accurate Kamera calibration technique for 3d machine vision”, Proc. Computer Vision und Pattern Recognition '86, S. 364 bis 374, 1986 [0054]

Claims (6)

  1. Messvorrichtung zum Bestimmen einer Position eines Werkzeugmittelpunktes (31) eines Werkzeugs (30), das an einer Werkzeuganbaufläche (32) eines vorderen Armabschnitts eines Roboters (1) angebracht ist, bezüglich der Werkzeuganbaufläche (32), wobei die Messvorrichtung aufweist: eine Kamera (4), die am vorderen Armabschnitt des Roboters (1) angebracht ist; einen in einem Arbeitsraum des Roboters (1) angeordneten Abtastpunkt; einen Messabschnitt (11a) zum Messen der Position des Abtastpunktes durch Verwenden des Roboters (1) und der Kamera (4); einen Messergebnis-Speicherabschnitt (12a) zum Speichern der Position des vom Messabschnitt (11a) gemessenen Abtastpunktes; einen Ausrichtergebnis-Speicherabschnitt (12b) zum Speichern einer Position des Roboters (1), wenn der Werkzeugmittelpunkt (31) durch Bewegen des Roboters (1) auf den Abtastpunkt ausgerichtet ist; und einen Werkzeugmittelpunktpositions-Berechnungsabschnitt (11b) zum Berechnen der Position des Werkzeugmittelpunktes (31) bezüglich der Werkzeuganbaufläche (32) des Roboters (1), indem die Position des im Messergebnis-Speicherabschnitt (12a) gespeicherten Abtastpunktes und die im Ausrichtergebnis-Speicherabschnitt (12b) gespeicherte Position des Roboters (1) verwendet werden.
  2. Messvorrichtung zum Bestimmen einer Position eines Werkzeugmittelpunktes (31) eines Werkzeugs (30), das an einer Werkzeuganbaufläche (32) eines vorderen Armabschnitts eines Roboters (1) angebracht ist, bezüglich der Werkzeuganbaufläche (32), wobei die Messvorrichtung aufweist: eine Kamera (4), die am vorderen Armabschnitt des Roboters (1) angebracht ist; und ein Messziel, das in einem Arbeitsraum des Roboters (1) angeordnet ist, wobei das Messziel einen Abtastpunkt aufweist, dessen Position bezüglich des Messziels bekannt ist, und wobei die Messvorrichtung ferner aufweist: einen Speicherabschnitt zum Speichern der Position des Abtastpunktes bezüglich des Messziels im Voraus; einen Messabschnitt (11a) zum Messen von Position und Ausrichtung des Ziels durch Verwenden des Roboters (1) und der Kamera (4); einen Messergebnis-Speicherabschnitt (12a) zum Speichern der vom Messabschnitt (11a) gemessenen Position und Ausrichtung; einen Ausrichtergebnis-Speicherabschnitt (12b) zum Speichern der Position des Roboters (1), wenn der Werkzeugmittelpunkt (31) durch Bewegen des Roboters (1) auf den Abtastpunkt ausgerichtet ist; und einen Werkzeugmittelpunktpositions-Berechnungsabschnitt (11b) zum Berechnen der Position des Werkzeugmittelpunktes (31) bezüglich der Werkzeuganbaufläche (32) des Roboters (1) durch Verwenden von Position und Ausrichtung des Ziels, die im Messergebnis-Speicherabschnitt (12a) gespeichert sind, wobei die Position des Roboters (1) im Ausrichtergebnis-Speicherabschnitt (12b) und die Position des Abtastpunktes im Speicherabschnitt gespeichert ist.
  3. Messvorrichtung nach Anspruch 2, bei der das Ziel Messobjekte hat, deren Größen und relative Positionen bekannt und die in einer Matrix angeordnet sind.
  4. Messvorrichtung nach Anspruch 2, bei der das Ziel drei Messobjekte aufweist, deren relative Positionen bekannt sind und die nicht zueinander in Reihe angeordnet sind.
  5. Messverfahren zum Bestimmen einer Position eines Werkzeugmittelpunktes (31) eines Werkzeugs (30), das an einer Werkzeuganbaufläche (32) eines vorderen Armabschnitts eines Roboters (1) angebracht ist, bezüglich der Werkzeuganbaufläche (32), das die Schritte aufweist: Messen der Position eines in einem Arbeitsraum des Roboters (1) angeordneten Abtastpunktes unter Verwenden des Roboters (1) und einer am vorderen Armabschnitt angebrachten Kamera (4); Speichern der gemessenen Position des Abtastpunktes in einem Messergebnis-Speicherabschnitt (12a); Ausrichten des Werkzeugmittelpunktes (31) nach Bewegen des Roboters (1) auf den Abtastpunkt; Speichern einer Position des Roboters (1), wenn der Werkzeugmittelpunkt (31) auf den Abtastpunkt ausgerichtet ist, in einem Ausrichtergebnis-Speicherabschnitt (12b); und Bestimmen der Position des Werkzeugmittelpunktes (31) bezüglich der Werkzeuganbaufläche (32) des Roboters (1) durch Verwenden der im Messergebnis-Speicherabschnitt (12a) gespeicherten Position des Abtastpunktes und der im Ausrichtergebnis-Speicherabschnitt (12b) gespeicherten Position des Roboters (1).
  6. Messverfahren zum Bestimmen einer Position eines Werkzeugmittelpunktes (31) eines Werkzeugs (30), das an einer Werkzeuganbaufläche (32) eines vorderen Armabschnitts eines Roboters (1) angebracht ist, bezüglich der Werkzeuganbaufläche (32), das die Schritte aufweist: Speichern der Position eines Abtastpunktes, dessen Position in einem Koordinatensystem bekannt ist, das an einem im Arbeitsraum des Roboters (1) angeordneten Messziel fixiert ist, in einem Speicherabschnitt; Messen der Position und Ausrichtung des Ziels im am Ziel fixierten Koordinatensystem unter Verwendung des Roboters (1) und einer am vorderen Armabschnitt des Roboters (1) angebrachten Kamera (4); Speichern der gemessenen Position und Ausrichtung des Ziels in einem Messergebnis-Speicherabschnitt (12a); Ausrichten des Werkzeugmittelpunktes (31) nach Bewegen des Roboters (1) auf den Abtastpunkt; Speichern der Position des Roboters (1) in einem Ausrichtergebnis-Speicherabschnitt (12b), wenn der Werkzeugmittelpunkt (31) auf den Abtastpunkt ausgerichtet ist; und Berechnen der Position des Werkzeugmittelpunktes (31) bezüglich der Werkzeuganbaufläche (32) des Roboters (1) durch Verwenden von Position und Ausrichtung des Ziels, die im Messergebnis-Speicherabschnitt (12a) gespeichert sind, wobei die Position des Roboters (1) im Ausrichtergebnis-Speicherabschnitt (12b) und die Position des Abtastpunktes im Koordinatensystem im Speicherabschnitt gespeichert ist.
DE102010032840.5A 2009-08-03 2010-07-30 Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters Active DE102010032840B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009180757A JP4763074B2 (ja) 2009-08-03 2009-08-03 ロボットのツール先端点の位置の計測装置および計測方法
JP2009-180757 2009-08-03

Publications (2)

Publication Number Publication Date
DE102010032840A1 true DE102010032840A1 (de) 2011-02-10
DE102010032840B4 DE102010032840B4 (de) 2015-06-18

Family

ID=43430310

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010032840.5A Active DE102010032840B4 (de) 2009-08-03 2010-07-30 Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters

Country Status (3)

Country Link
US (2) US20110029131A1 (de)
JP (1) JP4763074B2 (de)
DE (1) DE102010032840B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014100538A1 (de) * 2014-01-17 2015-07-23 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
US10889003B2 (en) 2017-02-20 2021-01-12 Kabushiki Kaisha Yaskawa Denki Robot system, robot controller, and method for controlling robot
DE102015104587B4 (de) 2015-03-26 2022-04-28 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
EP4357041A1 (de) * 2022-10-21 2024-04-24 Bystronic Laser AG Vorrichtung und verfahren zum automatisierten biegen von werkstücken

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131711A (ja) * 2008-12-05 2010-06-17 Honda Motor Co Ltd ロボットアームの制御方法
CN102909728B (zh) * 2011-08-05 2015-11-25 鸿富锦精密工业(深圳)有限公司 机器人工具中心点的视觉校正方法
US20150142171A1 (en) * 2011-08-11 2015-05-21 Siemens Healthcare Diagnostics Inc. Methods and apparatus to calibrate an orientation between a robot gripper and a camera
CN103101060B (zh) * 2011-11-11 2015-07-01 鸿富锦精密工业(深圳)有限公司 机器人工具中心点的传感校正方法
US9579788B2 (en) 2012-02-10 2017-02-28 Ascent Ventures, Llc Automated testing and verification of a robotic system
US9310482B2 (en) * 2012-02-10 2016-04-12 Ascent Ventures, Llc Methods for locating and sensing the position, orientation, and contour of a work object in a robotic system
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
JP2015174191A (ja) * 2014-03-17 2015-10-05 株式会社安川電機 ロボットシステム、ロボットシステムのキャリブレーション方法およびロボットシステムの位置補正方法
CN106462140B (zh) * 2014-04-30 2019-04-26 Abb瑞士股份有限公司 用于标定工业机器人系统的工具中心点的方法
DE102014222809B3 (de) * 2014-11-07 2016-01-14 Kuka Roboter Gmbh Event-basierte Redundanzwinkelkonfiguartion für Gelenkarmroboter
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US9718192B2 (en) * 2015-06-24 2017-08-01 National Taipei University Of Technology System for automatically and precisely positioning robotic arm and method thereof
US10547796B2 (en) 2015-07-14 2020-01-28 Industrial Technology Research Institute Calibration equipment and calibration method of a mechanical system
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
CN106945034B (zh) * 2016-01-07 2021-09-03 鸿富锦精密电子(郑州)有限公司 机器人点位调节方法与系统
US9757859B1 (en) * 2016-01-21 2017-09-12 X Development Llc Tooltip stabilization
US9744665B1 (en) 2016-01-27 2017-08-29 X Development Llc Optimization of observer robot locations
US10059003B1 (en) 2016-01-28 2018-08-28 X Development Llc Multi-resolution localization system
EP3408729B1 (de) * 2016-01-29 2021-11-17 ABB Schweiz AG Verfahren zur kalibrierung eines berührungsbildschirms mit einem industrieroboter und system, industrieroboter und berührungsbildschirm damit
US10551821B2 (en) * 2016-06-30 2020-02-04 Seiko Epson Corporation Robot, robot control apparatus and robot system
JP6922204B2 (ja) * 2016-12-09 2021-08-18 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
DE102017107593B4 (de) * 2017-04-07 2023-04-27 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Bestimmen unbekannter Transformationen
JP6572262B2 (ja) 2017-06-06 2019-09-04 ファナック株式会社 教示位置修正装置および教示位置修正方法
EP3441201B1 (de) * 2017-08-08 2023-01-18 Siemens Healthcare GmbH Verfahren zum bedienen eines roboters und robotersystem
JP2019058993A (ja) * 2017-09-27 2019-04-18 セイコーエプソン株式会社 ロボットシステム
TWI668541B (zh) 2017-09-29 2019-08-11 財團法人工業技術研究院 機器人工具中心點校正系統及其方法
JP6646034B2 (ja) 2017-12-14 2020-02-14 ファナック株式会社 ロボットシステム
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US10871366B2 (en) 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
US10751883B2 (en) * 2018-08-16 2020-08-25 Mitutoyo Corporation Robot system with supplementary metrology position coordinates determination system
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
US11707842B2 (en) 2018-11-27 2023-07-25 Fanuc Corporation Robot system and coordinate conversion method
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion
CN111716346B (zh) * 2019-03-20 2021-09-17 台达电子工业股份有限公司 机械手臂工具校正方法及其校正装置
US20220219328A1 (en) * 2021-01-08 2022-07-14 General Electric Company Method and device for creation of three dimensional tool frame

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0421413A (ja) 1990-05-16 1992-01-24 Matsushita Electric Works Ltd 積層板の製造方法
JPH04191080A (ja) 1990-11-27 1992-07-09 Sharp Corp プリンタ
JPH0885083A (ja) 1994-09-16 1996-04-02 Kobe Steel Ltd ロボットのツールパラメータ導出方法及び較正方法
JP3394322B2 (ja) 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
JP3733364B2 (ja) 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59189415A (ja) * 1983-04-13 1984-10-27 Hitachi Ltd 工業用ロボツトの動作教示方法および装置
JP2975368B2 (ja) * 1987-11-04 1999-11-10 株式会社日立製作所 ロボットにおける芯ずれ補正方法及び同装置
JPH01257593A (ja) * 1988-04-06 1989-10-13 Hitachi Ltd ロボットの芯ずれ補正方法
JPH02262982A (ja) * 1989-03-31 1990-10-25 Fanuc Ltd ツールセンタポイントの設定方法
JP2690603B2 (ja) * 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
JP2700965B2 (ja) * 1991-07-04 1998-01-21 ファナック株式会社 自動キャリブレーション方式
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
JPH06175716A (ja) * 1992-12-10 1994-06-24 Fanuc Ltd マニピュレータの物体把持作業における位置・姿勢補正方法
US5457367A (en) * 1993-08-06 1995-10-10 Cycle Time Corporation Tool center point calibration apparatus and method
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
JP3644991B2 (ja) * 1994-11-08 2005-05-11 ファナック株式会社 ロボット−センサシステムにおける座標系結合方法
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
US5910719A (en) * 1996-09-17 1999-06-08 Cycle Time Corporation Tool center point calibration for spot welding guns
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
WO2001000370A1 (de) * 1999-06-26 2001-01-04 Kuka Schweissanlagen Gmbh Verfahren und vorrichtung zum kalibrieren von robotermessstationen, manipulatoren und mitgeführten optischen messeinrichtungen
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
US6941192B2 (en) * 2002-01-31 2005-09-06 Abb Research Ltd. Robot machining tool position and orientation calibration
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
JP4191080B2 (ja) * 2004-04-07 2008-12-03 ファナック株式会社 計測装置
US20080252248A1 (en) * 2005-01-26 2008-10-16 Abb Ab Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
US20060218680A1 (en) * 2005-03-28 2006-09-28 Bailey Andrew D Iii Apparatus for servicing a plasma processing system with a robot
US20070005002A1 (en) * 2005-06-30 2007-01-04 Intuitive Surgical Inc. Robotic surgical instruments for irrigation, aspiration, and blowing
JP4267005B2 (ja) * 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0421413A (ja) 1990-05-16 1992-01-24 Matsushita Electric Works Ltd 積層板の製造方法
JPH04191080A (ja) 1990-11-27 1992-07-09 Sharp Corp プリンタ
JP3394322B2 (ja) 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
JPH0885083A (ja) 1994-09-16 1996-04-02 Kobe Steel Ltd ロボットのツールパラメータ導出方法及び較正方法
JP3733364B2 (ja) 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"An efficient und accurate Kamera calibration technique for 3d machine vision", von Roger Y. Tsai, Proc. Computer Vision und Pattern Recognition '86, S. 364 bis 374, 1986
Roger Y. Tsai in "An efficient und accurate Kamera calibration technique for 3d machine vision", Proc. Computer Vision und Pattern Recognition '86, S. 364 bis 374, 1986

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014100538A1 (de) * 2014-01-17 2015-07-23 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
DE102014100538B4 (de) 2014-01-17 2022-09-08 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
DE102015104587B4 (de) 2015-03-26 2022-04-28 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
US10889003B2 (en) 2017-02-20 2021-01-12 Kabushiki Kaisha Yaskawa Denki Robot system, robot controller, and method for controlling robot
DE102018202322B4 (de) * 2017-02-20 2021-02-11 Kabushiki Kaisha Yaskawa Denki Robotersystem, Robotersteuervorrichtung und Robotersteuerverfahren
EP4357041A1 (de) * 2022-10-21 2024-04-24 Bystronic Laser AG Vorrichtung und verfahren zum automatisierten biegen von werkstücken
WO2024083674A1 (en) * 2022-10-21 2024-04-25 Bystronic Laser Ag Apparatus and method for the automated bending of workpieces

Also Published As

Publication number Publication date
JP2011031346A (ja) 2011-02-17
US9050728B2 (en) 2015-06-09
DE102010032840B4 (de) 2015-06-18
US20110029131A1 (en) 2011-02-03
US20140156072A1 (en) 2014-06-05
JP4763074B2 (ja) 2011-08-31

Similar Documents

Publication Publication Date Title
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE602005003147T2 (de) Messsystem
DE102016116702B4 (de) Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE69103871T2 (de) Eichsystem für einen optischen sensor.
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
EP2435217B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE69105476T2 (de) Verfahren zum kalibrieren eines optischen sensors.
DE102017002608A1 (de) Positioniersystem unter Verwendung eines Roboters
DE3854235T2 (de) Automatische einstellung der werkzeugspitze.
DE102018007287B4 (de) Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
DE102016119605A1 (de) Kalibrierungssystem und Kalibrierungsverfahren zur Kalibrierung der mechanischen Parameter des Handgelenksteils eines Roboters
DE102019001038B4 (de) Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
DE102014117346B4 (de) Roboter, Robotersteuerungsverfahren und Robotersteuerungsprogramm zur Werkstückkorrektur
DE102016116811A1 (de) Auslenkungsmesssystem zum Messen der Auslenkung eines Gelenkroboters
DE102018125841B4 (de) Roboter, Robotersystem und Verfahren zum Festlegen eines Koordinatensystems eines Roboters
DE102018107857A1 (de) Vorrichtung, System und Verfahren zur automatischen Erzeugung eines Bewegungspfads eines Roboters
DE112019005484T5 (de) Automatische Kalibrierung für ein Kamera-Robotersystem mit Werkzeugoffsets
DE102013017007A1 (de) Roboter mit einem Endmanipulatorarm mit Endeffektor sowie Verfahren zur Bestimmung eines Kraft- und Drehmomenteintrages auf einen Endeffektor eines Roboters
DE102010037067B4 (de) Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters
EP3441200A1 (de) Referenzierverfahren und vorrichtung für industrieroboter
EP1172183A2 (de) Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
WO2024184832A1 (de) Verfahren und anordnung zur kompensation nicht-geometrischer fehlereinflüsse auf eine roboterabsolutgenauigkeit mittels eines laser-sensor-systems

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20110624

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO, JP

Free format text: FORMER OWNER: FANUC LTD, OSHINO-MURA, YAMANASHI, JP

Effective date: 20111116

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC LTD, OSHINO-MURA, YAMANASHI, JP

Effective date: 20111116

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111116

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111116

R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO, JP

Free format text: FORMER OWNER: FANUC CORP., YAMANASHI, JP

Effective date: 20120202

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC CORP., YAMANASHI, JP

Effective date: 20120202

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20120202

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20120202

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final