DE602005003147T2 - Messsystem - Google Patents

Messsystem Download PDF

Info

Publication number
DE602005003147T2
DE602005003147T2 DE602005003147T DE602005003147T DE602005003147T2 DE 602005003147 T2 DE602005003147 T2 DE 602005003147T2 DE 602005003147 T DE602005003147 T DE 602005003147T DE 602005003147 T DE602005003147 T DE 602005003147T DE 602005003147 T2 DE602005003147 T2 DE 602005003147T2
Authority
DE
Germany
Prior art keywords
light
target
handling device
image
receiving device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005003147T
Other languages
English (en)
Other versions
DE602005003147D1 (de
Inventor
Kazunori Ban
Makoto Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE602005003147D1 publication Critical patent/DE602005003147D1/de
Application granted granted Critical
Publication of DE602005003147T2 publication Critical patent/DE602005003147T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Messsystem und ein Verfahren zum Messen der Position eines Ziels (ein Punkt auf einem zu messenden Objekt), indem Licht auf einer Licht empfangenden Oberfläche eines Licht empfangenden Geräts, das an einem Roboter angebracht ist, empfangen wird.
  • 2. Beschreibung der verwandten Technik
  • Ein Touchierverfahren ist als ein Verfahren zum Bestimmen der Position eines Objekts in der Nähe eines Roboters und insbesondere der Position eines zu messenden Ziels auf dem Objekt bekannt. Dieses Verfahren enthält die Schritte: Vorbestimmen der Position des Werkzeugmittelpunktes (tool center point; TCP) bezüglich eines am Ende eines Roboterarms befestigten Koordinatensystems (Koordinatensystem der mechanische Berührungsfläche), Bewegen des Roboters im manuellen Modus wie im Kriechgang, so dass der TCP genau mit dem Ziel (zu messender Punkt) übereinstimmt, und Erfassen der Positionsdaten des Roboters, um die Position des Ziels zu bestimmen.
  • Ein anderes Verfahren, bei dem ein Roboter und eine Kamera kombiniert sind, ist ebenfalls bekannt. Die Kamera ist am Ende des Roboterarms angebracht. Die Kamera wird vom Roboter zur Stereosichtmessung bewegt, wodurch die Position des Ziels relativ zum Roboter bestimmt wird. Wie bekannt ist, erfordert dieses Verfahren eine Kalibrierung, bei der ein Sensorkoordinatensystem, das im Allgemeinen am Körper der Kamera angebracht ist, bestimmt wird, und es werden eine Position des Sensorkoordinatensystems und eine Position auf dem Kamerabild entsprechend der Position des Sensorkoordinatensystems berechnet. Auf eine detaillierte Erläuterung dieser Kalibrierung wird verzichtet, da die Kalibrierung in der Technik hinreichend bekannt ist.
  • Ferner muss bei dem Verfahren, bei dem der Roboter und die Kamera kombiniert sind, im Voraus eine Positionsbeziehung zwischen dem Roboter und der Kamera zusätzlich zur Kalibrierung berechnet werden. Diese Berechnung wird oft als Kombination des Roboterkoordinatensystems und des Sensorkoordinatensystems bezeichnet. Beispiele dafür sind in folgenden Dokumenten offenbart: Roger Y. Tsai und Reimar K. Lenz "A New Technique for Fully Autonomous and Efficient 3D Robotics Hand/Eye Calibration", IEEE Trans an Robotics and Auto mation, Jahrg. 5, Nr. 3, 1989, S. 345 bis 358, und japanische Offenlegungsschrift Nr. 10-63317 .
  • Wenn sowohl die Kalibrierung als auch die Kombination der Koordinatensysteme beendet worden ist, kann eine visuelle Linie von der Kamera zum Ziel berechnet werden. Durch Bewegen der Kamera in zwei Positionen und Messen des Ziels kann deshalb eine dreidimensionale Position des Ziels relativ zum Roboter als Schnittpunkt von zwei visuellen Linien berechnet werden.
  • Die JP08047881A beschreibt ein Verfahren zur Fernsteuerung eines Roboters, bei dem zwei Kameras an den linken und rechten Teilen eines Robotergreifers angebracht sind. Die Form einer Kante eines Ziels wird erkannt, und eine trigonometrische Vermessung des Greifers, der Positionen und Haltungen des Roboters sowie des Ziels erfolgt anhand einer epipolaren Linie an einem beliebigen Punkt der Form.
  • Die beiden obigen Verfahren (d. h. das Touchierverfahren und das Kombinationsverfahren mit Kamera und Roboter) sind jedoch mit Problemen behaftet.
  • Beim Touchierverfahren unter Verwendung des Roboters ist eine Messung mit hoher Präzision wegen eines möglichen Einstellfehlers des TCP relativ zum Roboter (oder der mechanischen Berührungsfläche) und eines Positionierungsfehlers des TCP zum Ziel während des Touchiervorgangs schwierig. Sowohl bei der Einstellung als auch der Positionierung des TCP muss ein Bediener den Roboter im Kriechgang bewegen und den TCP des Roboters mit einer gewünschten Position zu Deckung bringen. In diesem Fall haben Einstellung und Positionierung in Abhängigkeit der Ausrichtung des Roboters bei der Ausführung von Einstellung und Positionierung oder in Abhängigkeit von der Fertigkeit des Bedieners verschiedene Präzisionsgrade. Da die Positionierung auf Basis einer visuellen Messung erfolgt, kann selbst ein qualifizierter Bediener nicht mit hoher Präzision arbeiten. Da ferner ein TCP dem Ziel angenähert oder mit diesem in Kontakt gebracht wird, kann eine gegenseitige Behinderung (oder Beschädigung des TCP und/oder des zu messenden Objekts) eintreten.
  • Das Verfahren, bei dem die Kamera am Ende des Roboterarms angebracht ist und vom Roboter zur Stereosichtmessung bewegt wird, basiert dagegen auf der Messung des Ziels durch die Kamera. Der Präzisionsgrad des Verfahrens ist deshalb stabil, weil ein Faktor einschließlich eines menschlichen Fehlers wie eine Sichtkontrolle entfällt, und die Sicherheit des Verfahrens ist hoch, weil das Verfahren mit einer Messung des berührungslosen Typs arbeitet. Wie oben beschrieben ist jedoch die Kombination der Koordinatensysteme bei der Kalibrierung erforderlich, und der Arbeitsaufwand für die Kalibrierung und ihrer Vorbereitungsmaßnahmen ist keineswegs gering. Der Grund hierfür wird kurz unter Bezugnahme auf 11 beschrieben.
  • 11 zeigt eine typische Anordnung, wie sie im Stand der Technik zur Kalibrierung verwendet wird. Ein mit dem Bezugszeichen 1 gekennzeichneter Roboter wird von einem Robotersteuergerät 5 gesteuert. Eine Kamera 4 ist um das Ende des Arms des Roboters 1 angebracht. Die Kamera 4 ist mit einer Bildverarbeitungseinheit 2 verbunden, die einen Monitor 3 mit einem LCD- oder CRT-Bildschirm hat. Das Bezugszeichen 6 kennzeichnet eine plattenförmige Vorrichtung, die zur Kalibrierung dient, oder eine Kalibrierplatte. Die Kalibrierplatte 6 hat z. B. ein Punktmuster aus einer bekannten Punktmatrix. Das Bild der Kalibrierplatte wird von der Kamera 4 aufgenommen und von der Bildverarbeitungseinheit 2 analysiert. Dann wird das Sensorkoordinatensystem bestimmt, und Parameter, die die Position des Sensorkoordinatensystems und die Position auf dem Kamerabild entsprechend der Position des Koordinatensystems angeben, werden als Kalibrierdaten berechnet und gespeichert.
  • Danach werden die Koordinatensysteme bezüglich des Roboters und der Kamera auf Basis der oben beschriebenen herkömmlichen Technik kombiniert. Im konkreten Fall des Beispiels von 11 werden Matrixdaten, die die relative Positionsbeziehung zwischen dem Sensorkoordinatensystem Σs und den Koordinaten Σf der mechanischen Berührungsfläche des Roboters 1 repräsentieren, erhalten. Eine solche Reihe von Operationen erfordert komplizierte Vorbereitungen und die exklusive Kalibrierplatte 6. Außerdem können normalerweise ein Licht empfangendes Teil (z. B. eine CCD-Matrix) oder eine Abbildungslinse der Kamera eine geometrische Verzerrung haben. Insbesondere hat eine Linse häufig eine starke Verzerrung. Die Verzerrung der Linse ist am Umfang der Linse größer, weshalb die Berechnung der visuellen Linie vom Brennpunkt der Linse bis zum Ziel je nach der Position des Ziels auf dem Bild einen kleinen oder großen Fehler enthalten kann.
  • Zusammenfassung der Erfindung
  • Demzufolge ist es eine Aufgabe der vorliegenden Erfindung, ein Messsystem zum Messen des Ziels unter Verwendung der Kamera oder eines alternativen PSD (position sensitive detector; positionsempfindlicher Detektor), der um das Ende eines Handhabungsgeräts oder des Roboterarms angebracht ist, und zur Ausführung der Messung ohne komplizierte Vorbereitungen und die exklusive Kalibrierplatte bereitzustellen. Außerdem soll die Erfindung nicht durch die geometrische Verzerrung der Linse oder des Licht empfangenden Geräts zur Bildgebung beeinflusst werden.
  • Das Grundmerkmal der Erfindung ist die Bestimmung der Positionsbeziehung zwischen dem Handhabungsgerät und der visuellen Linie der Kamera, indem folgende Operationen kombiniert werden: Empfangen des Bildes des Ziels auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts (typischerweise die Kamera oder der PSD), das um das Ende des Handhabungsgeräts angebracht ist, Bewegen des Handhabungsgeräts, um das Bild des Ziels in einer vorgegebenen Position zu positionieren (z. B. in der Mitte des Kamerabildes oder dem Ursprung des PSD), Bestimmen der Position des Handhabungsgeräts und Bewegen des Handhabungsgeräts, um die Ausrichtung des Licht empfangenden Geräts zu ändern. Wenn die Positionsbeziehung bestimmt worden ist, kann die dreidimensionale Position des Ziels berechnet werden, indem das Ziel unter Verwendung des Licht empfangenden Geräts von zwei Punkten auf Basis des Prinzips der Stereomessung abgebildet wird.
  • Gemäß einem Aspekt der Erfindung wird ein Messsystem zum Messen der Position eines Ziels, das relativ zu einem Roboter mit einem Handhabungsgerät zu messen ist, wobei das Messsystem aufweist: ein Licht empfangendes Gerät, das am Handhabungsgerät angebracht ist; ein Steuergerät zur Positionierung des Handhabungsgeräts in einer Ausgangsposition; und eine Bildverarbeitungseinheit zum Berechnen der Position eine Bildes des Ziels auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts, wobei das Ziel auf der Licht empfangenden Oberfläche abgebildet wird; bei dem die Steuereinheit aufweist: einen ersten Arithmetikteil zum Berechnen des Bewegungswegs des Handhabungsgeräts, durch den die Position des Bildes des Ziels auf der Licht empfangenden Oberfläche, die von der Bildverarbeitungseinheit berechnet wird, mit einem vorgegebenen Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt; einen Antriebssteuerteil zum Bewegen des Handhabungsgeräts entsprechend dem Bewegungsweg; einen zweiten Arithmetikteil zum Berechnen der Position und Ausrichtung einer visuellen Linie des Licht empfangenden Geräts relativ zu einer Roboterkoordinate auf Basis einer Mehrzahl Positionen des Handhabungsgeräts; und einen dritten Arithmetikteil zum Berechnen der dreidimensionalen Position des Ziels relativ zur Roboterkoordinate auf Basis der Position und Ausrichtung der visuellen Linie.
  • Der erste Arithmetikteil ist zur Berechnung der Ausrichtung der visuellen Linie des Licht empfangenden Geräts relativ zur Roboterkoordinate auf Basis von mindestens zwei Positionen des Handhabungsgeräts ausgelegt, nachdem es so bewegt worden ist, dass das Bild des Ziels mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die zwei Positionen so bestimmt werden, dass die Ausrichtungen des Licht empfangenden Geräts in den zwei Positionen gleich und die Abstände zwischen dem Licht empfangenden Gerät und dem Ziel in den zwei Positionen voneinander verschieden sind.
  • Der zweite Arithmetikteil ist zur Berechnung der Position der visuellen Linie des Licht empfangenden Geräts relativ zur Roboterkoordinate auf Basis der Ausrichtung der visuellen Linie und mindestens zweier Positionen des Handhabungsgeräts ausgelegt, nachdem es so bewegt worden ist, dass das Bild des Ziels mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung des Licht empfangenden Geräts durch eine Bewegung einschließlich einer Drehung um eine Achse parallel zur Ausrichtung der visuellen Linie geändert wird.
  • Der dritte Arithmetikteil ist zur Berechnung der dreidimensionalen Position des Ziels relativ zur Roboterkoordinate auf Basis der Ausrichtung und der Position der visuellen Linie und der mindestens zwei Positionen des Handhabungsgeräts ausgelegt, nachdem es so bewegt worden ist, dass das Bild des Ziels mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung und die Position des Licht empfangenden Geräts durch eine Bewegung einschließlich einer Drehung um eine Achse senkrecht zur Ausrichtung der visuellen Linie geändert werden.
  • Der Referenzpunkt der Licht empfangenden Oberfläche ist vorzugsweise allgemein in der Mitte der Licht empfangenden Oberfläche positioniert.
  • Das Messsystem kann ferner einen Bestimmungsteil zur Bestimmung nach der Bewegung des Handhabungsgeräts und vor dem Speichern der Position des Handhabungsgeräts enthalten, ob die Position des Ziels, das auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts abgebildet ist, mit dem Referenzpunkt zusammenfällt, wenn der Abstand zwischen ihnen innerhalb eines vorgegebenen Fehlerbereichs liegt. Es ist deshalb sichergestellt, dass die Position des Bildes des Ziels auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts mit dem Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt.
  • Weiter kann die Position des Handhabungsgeräts nach der Bewegung als Ausgangsposition erneut eingestellt werden, wenn der Bestimmungsteil bestimmt, dass die Position des Bildes des Ziels nicht mit dem Referenzpunkt auf der Licht empfangenden Oberfläche übereinstimmt. Deshalb ist ebenfalls sichergestellt, dass die Position des Bildes des Ziels auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts durch Wiederholen der Roboterbewegung mit dem Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt.
  • Das Licht empfangende Gerät kann abnehmbar um das Ende des Handhabungsgeräts angebracht sein, wodurch das Licht empfangende Gerät um das Ende des Handhabungsgeräts angebracht sein kann, wenn eine Messung ausgeführt wird, und nach der Messung abgebaut werden kann.
  • Das Licht empfangende Gerät kann abnehmbar um das Ende des Handhabungsgeräts angebracht sein, wodurch der Roboter zur Messung der Position eines relativ zum Roboter zu messenden Objekts verwendet werden kann, indem das Licht empfangende Gerät um das Ende des Handhabungsgeräts angebracht wird, und der Roboter nach der Messung für eine von der Messung verschiedene Anwendung eingesetzt werden kann, indem das Licht empfangende Gerät abgebaut wird.
  • Das Licht empfangende Gerät kann eine Kamera zur Abbildung eines zweidimensionalen Bildes oder ein positionsempfindlicher Detektor zur Berechnung des Schwerpunkts der Verteilung des empfangenen Lichts sein.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein Messverfahren zum Messen der Position eines Ziels, das relativ zu einem Roboter mit einem Handhabungsgerät zu messen ist, bereitgestellt, wobei das Verfahren aufweist: Vorbereiten eines Licht empfangenden Geräts, das am Handhabungsgerät angebracht wird; Positionieren des Handhabungsgeräts in einer Ausgangsposition; Berechnen der Position eines Bildes des Ziels auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts, wobei das Ziel auf der Licht empfangenden Oberfläche abgebildet wird; Berechnen des Bewegungswegs des Handhabungsgeräts, durch den die Position des Bildes des Ziels auf der Licht empfangenden Oberfläche mit einem vorgegebenen Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt; Bewegen des Handhabungsgeräts entsprechend dem Bewegungsweg; Be rechnen der Ausrichtung einer visuellen Linie des Licht empfangenden Geräts relativ zu einer Roboterkoordinate auf Basis von mindestens zwei Positionen des Handhabungsgeräts nach der Bewegung des Handhabungsgeräts in der Weise, dass das Bild des Ziels mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die mindestens zwei Positionen so bestimmt werden, dass die Ausrichtungen des Licht empfangenden Geräts in den zwei Positionen gleich sind, und die Abstände zwischen dem Licht empfangenden Gerät und dem Ziel in den zwei Positionen voneinander verschieden sind; Berechnen der Position der visuellen Linie des Licht empfangenden Geräts relativ zur Roboterkoordinate auf Basis der Ausrichtung der visuellen Linie und von mindestens zwei Positionen des Handhabungsgeräts nach der Bewegung des Handhabungsgeräts in der Weise, dass das Bild des Ziels mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung des Licht empfangenden Geräts durch eine Bewegung einschließlich einer Drehung um eine Achse parallel zur Ausrichtung der visuellen Linie geändert wird; und Berechnen der dreidimensionalen Position des Ziels relativ zur Roboterkoordinate auf Basis der Ausrichtung und der Position der visuellen Linie und von mindestens zwei Positionen des Handhabungsgeräts nach der Bewegung des Handhabungsgeräts in der Weise, dass das Bild des Ziels mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung und die Position des Licht empfangenden Geräts durch eine Bewegung einschließlich einer Drehung um eine Achse senkrecht zur Ausrichtung der visuellen Linie geändert werden.
  • Kurzbeschreibung der Zeichnungen
  • Die obigen und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung erschließen sich noch besser aus der folgenden Beschreibung der bevorzugten Ausführungsformen unter Bezugnahme auf die beiliegenden Zeichnungen; es zeigen:
  • 1 ein Blockdiagramm, das schematisch die Konfiguration eines Messsystems gemäß der vorliegenden Erfindung darstellt;
  • 2 ein Diagramm der Gesamtkonfiguration einer Ausführungsform der Erfindung;
  • 3 ein Blockdiagramm der Konfiguration eines mit der Erfindung verwendeten Roboters;
  • 4 ein Blockdiagramm der Konfiguration einer Bildverarbeitungseinheit;
  • 5 ein Diagramm des Monitors, das die Bewegung des Ziels zum Mittelpunkt der Licht empfangenden Oberfläche des Licht empfangenden Geräts darstellt;
  • 6 ein Diagramm zur Erläuterung des Prozesses von Schritt T4;
  • 7a und 7b Diagramme zur Erläuterung des Prozesses von Schritt T8, wobei das erste eine Drehbewegung der Koordinate Σv1 und das zweite eine Beziehung zwischen der Drehbewegung und der Koordinate Σv2 darstellt;
  • 8 ein Diagramm zur Erläuterung des Prozesses der Berechnung der dreidimensionalen Position des Ziels;
  • 9 ein Flussdiagramm des Prozessablaufs zur Bewegung eines vorgegebenen Punktes; 10 ein Flussdiagramm des Ablaufs des gesamten bei der Ausführungsform ausgeführten Prozesses; und 11 ein Diagramm einer typischen Anordnung, die bei einer Kalibrierung im Stand der Technik verwendet wird.
  • Detaillierte Beschreibung
  • 1 zeigt schematisch eine Konfiguration eines Messsystems gemäß der vorliegenden Erfindung. Ein Messsystem 7 zum Messen der Position eines zu messenden Ziels 31 relativ zu einem Roboter 1 mit einem Handhabungsgerät 1a enthält ein Licht empfangendes Gerät 4, das am Handhabungsgerät 1a angebracht ist, ein Steuergerät 10 zum Positionieren des Handhabungsgeräts 1a in einer Ausgangsposition und eine Bildverarbeitungseinheit 2 zum Berechnen der Position des Ziels 31 auf einer Licht empfangenden Oberfläche des Licht empfangenden Geräts 4, das auf der Licht empfangenden Oberfläche abgebildet wird. Das Steuergerät 10 enthält einen ersten Arithmetikteil 11a zum Berechnen des Bewegungswegs des Handhabungsgeräts 1a, durch den die Position des Ziels 31 auf der Licht empfangenden Oberfläche, die von der Bildverarbeitungseinheit 2 berechnet wird, mit einem vorgegebenen Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt, einen Antriebssteuerteil 15 zum Bewegen des Handhabungsgeräts 1a entsprechend dem Bewegungsweg, einen zweiten Arithmetikteil 11b zum Berechnen mindestens entweder der Position oder der Ausrichtung einer visuellen Linie 40 des Licht empfangenden Geräts relativ zu einer Roboterkoordinate und einen dritten Arithmetikteil 11c zum Berechnen der dreidimensionalen Position des Ziels 31 relativ zur Roboterkoordinate auf Basis mindestens entweder der Position oder der Ausrichtung der visuellen Linie 40. Bei der nachstehenden Ausführungsform führt eine Haupt-CPU 11 die Funktionen des ersten, zweiten und dritten Arithmetikteils 11a 11b und 11c aus.
  • Eine Ausführungsform der Erfindung wird anhand der 2 bis 10 beschrieben. 2 zeigt eine Gesamtkonfiguration der Ausführungsform Erfindung. Das Licht empfangende Gerät 4 (z. B. eine Kamera) ist um das Ende des Handhabungsgeräts 1a des Roboters 1 angebracht. Die Kamera 4 kann eine bekannte CCD-Kamera mit einer Funktion zur Erkennung eines zweidimensionalen Bildes eines auf einer Licht empfangenden Oberfläche oder einer CCD-Matrixoberfläche abgebildeten Objekts sein. Die Kamera 4 ist mit einer Bildverarbeitungseinheit 2 verbunden, die einen Monitor 3, etwa einen LCD- oder CRT-Schirm hat. Das Bezugszeichen 30 kennzeichnet ein Objekt, das im Bereich des Roboters 1 positioniert ist. Die relative Position des Objekts 30 zum Roboter 1 ist zu berechnen, wozu ein zu messendes Ziel oder ein zu messender Punkt 31 auf dem Objekt 30 angebracht ist. Das Ziel 31 kann eine für das Objekt 30 charakteristische Form oder eine auf dem Objekt zur Messung angebrachte Referenzmarkierung sein. Wie später beschrieben wird, wird das Ziel 31 von der Kamera 4 abgebildet und das Bild des Ziels 31 von der Bildverarbeitungseinheit 2 analysiert. Eine mit dem Bezugszeichen 40 gekennzeichnete visuelle Linie wird als Gerade bestimmt, die von einem repräsentativen Punkt der Kamera 4 (z. B. vom Mittelpunkt der Licht empfangenden Oberfläche der Kamera) über den Brennpunkt einer Abbildungslinse der Kamera 4 zum Ziel 31 verläuft. Der Monitor 3 kann einen LCD- oder CRT-Bildschirm haben, der in die Bildverarbeitungseinheit 2 integriert ist, und bei Bedarf ein gewünschtes Bild anzeigen.
  • Der Roboter 1 kann ein herkömmlicher typischer Roboter sein und hat ein Robotersteuergerät 10 mit der in 3 dargestellte Blockkonfiguration. Das Robotersteuergerät 10 hat eine Haupt-CPU (eine Hauptzentraleinheit, die im Folgenden einfach als CPU bezeichnet wird) 11, einen Speicher 12, der aus einem RAM (random access memory; Speicher mit wahlfreiem Zugriff), einem ROM (read-only memory; Festspeicher) und einem nicht flüchtigen Speicher besteht, eine Einlernpult-Schnittstelle 13, eine Kommunikationsschnittstelle 14, einen Antriebssteuerteil einer Servosteuereinheit 15 und eine Eingabe-/Ausgabeschnittstelle 16 für externe Einheiten, die miteinander über einen Bus 17 parallel geschaltet sind.
  • Ein Einlernpult 18, das mit der Einlernpult-Schnittstelle 13 verbunden ist, kann die üblichen Anzeigefunktionen haben. Ein Bediener erstellt, korrigiert und registriert ein Bewegungsprogramm für den Roboter, indem er manuelle Operationen am Einlernpult 18 vornimmt. Außerdem stellt der Bediener verschiedene Parameter ein, bedient den Roboter auf Basis des eingelernten Bewegungsprogramms und bewegt diesen im manuellen Modus im Kriechgang. Ein Systemprogramm, das die Grundfunktionen des Roboters 1 und das Robotersteu ergerät 10 unterstützt, ist im ROM des Speichers 12 gespeichert. Das Bewegungsprogramm (z. B. Punktschweißen) des gemäß der Anwendung eingelernten Roboters und die relevanten eingestellten Daten sind im nicht flüchtigen Speicher des Speichers 12 gespeichert.
  • Ein Programm und Parameter, die zur Ausführung von Prozessen dienen (für die Bewegung des Handhabungsgeräts zur Berechnung der visuellen Linie und für die Kommunikation dazu mit der Bildverarbeitungseinheit), die später beschrieben werden, sind ebenfalls im nicht flüchtigen Speicher des Speichers 12 gespeichert. Der RAM des Speichers 12 dient als Speicherbereich zur temporären Speicherung verschiedener von der CPU 11 verarbeiteter Daten. Die Servosteuereinheit 15 hat Servosteuerungen Nr. 1 bis Nr. n, wobei n die Gesamtzahl der Achsen des Roboters ist und in diesem Fall mit gleich 6 angenommen wird. Die Servosteuereinheit 15 empfängt einen Verschiebebefehl, der durch Operationen (wie eine Wegplanerstellung, Interpolation und inverse Transformation auf Basis des Plans) erstellt wird, um den Roboter zu steuern. Die Servosteuereinheit 15 gibt Drehmomentbefehle an die Servoverstärker A1 bis An auf Basis des Verschiebebefehls und der von den Impulscodierern (nicht dargestellt), die zu den Achsen gehören, empfangenen Rückkopplungssignale aus. Die Servoverstärker A1 bis An liefern auf Basis der Drehmomentbefehle Strom an die Servomotoren der jeweiligen Achsen, wodurch die Servomotoren angesteuert werden. Die Kommunikationsschnittstelle 14 ist mit der in 2 dargestellten Bildverarbeitungseinheit 2 verbunden. Das Robotersteuergerät 10 tauscht mit der Bildverarbeitungseinheit 2 über die Kommunikationsschnittstelle 14 Befehle aus, die für die Messung und die gemessenen Daten relevant sind (wird später beschrieben).
  • Die Bildverarbeitungseinheit 2 hat eine in 4 dargestellte Blockkonfiguration. Die Bildverarbeitungseinheit 2 hat eine CPU 20 mit einem Mikroprozessor und außerdem einen ROM 21, einen Bildprozessor 22, eine Kameraschnittstelle 23, eine Monitorschnittstelle 24, eine Eingabe-/Ausgabe-(E/A)Einheit 25, einen Einzelbildspeicher (d. h. einen Bildspeicher) 26, einen nicht flüchtigen Speicher 27, einen RAM 28 und eine Kommunikationsschnittstelle 29, die über eine Busleitung 32 mit der CPU 20 verbunden sind.
  • Eine Kamera als Abbildungseinheit, die in diesem Fall die in 2 dargestellte Kamera 4 ist, ist mit der Kameraschnittstelle 23 verbunden. Wenn die Kamera einen Abbildungsbefehl über die Kameraschnittstelle 23 empfängt, nimmt die Kamera ein Bild unter Anwendung der elektronischen Verschlussfunktion auf, die in der Kamera integriert ist. Die Kamera sendet ein Videosignal "Aufgenommen" über die Kameraschnittstelle 23 an den Einzelbildspeicher 26 und dieser speichert das Videosignal in Form eines Grauskalensignals. Ein Monitor, bei dem es sich in diesen Fall um den in 2 dargestellten Monitor 3 handelt, ist mit der Monitorschnittstelle 24 verbunden. Der Monitor zeigt nach Bedarf aktuell von der Kamera aufgenommene Bilder an, frühere im Einzelbildspeicher 26 gespeicherte Bilder oder vom Bildprozessor 22 verarbeitete Bilder.
  • Der Bildprozessor 22 analysiert das Videosignal vom Bild des Ziels 31, das im Einzelbildspeicher 26 gespeichert ist, und es wird eine dreidimensionale Position des Ziels erhalten, was später ausführlich beschrieben wird. Ein Programm und Parameter zu diesem Zweck sind im nicht flüchtigen Speicher 27 gespeichert. Der RAM 28 speichert Daten temporär, die die CPU 20 zur Ausführung verschiedener Prozesse verwendet. Die Kommunikationsschnittstelle 29 ist mit dem Robotersteuergerät mit der Kommunikationsschnittstelle 14 an der Seite des Robotersteuergeräts verbunden.
  • In 2 ist eine Mehrzahl Koordinatensysteme dargestellt. Dabei gibt Σv ein Koordinatensystem einschließlich der visuellen Linie 40 an, die von einem repräsentativen Punkt (z. B. vom Mittelpunkt der Licht empfangenden Oberfläche der Kamera) der Kamera 4 über den Brennpunkt einer Abbildungslinse der Kamera 4 zum Ziel 31 verläuft. Der Ursprung des Koordinatensystems Σv liegt auf der visuellen Linie 40, und eine Achse des Koordinatensystems (z. B. die Z-Achse) fällt mit der visuellen Linie 40 zusammen. Außerdem sind ein Koordinatensystem, das zur Basis des Roboters gehört, und ein Koordinatensystem der mechanische Berührungsfläche mit Σb bzw. Σf gekennzeichnet. Bei dieser Ausführungsform wird das Koordinatensystem der mechanischen Berührungsfläche Σf als Koordinatensystem bestimmt, das einen repräsentativen Punkt des Handhabungsgeräts enthält. Die dreidimensionale Position des Ziels 31 relativ zum Koordinatensystem Σf wird wie nachstehend beschrieben berechnet.
  • Die berechnete dreidimensionale Position kann jederzeit auf Basis der Positionsbeziehung zwischen den Koordinatensystemen Σb und Σf in eine dreidimensionale Position relativ zum Roboterkoordinatensystem Σb unter Anwendung z. B. eines bekannten Koordinatentransformationsverfahrens gewandelt werden.
  • Obwohl das Licht empfangende Gerät bei der Ausführungsform der Erfindung als eine CCD-Kamera zum Abbilden eines zweidimensionalen Bildes des Objekts beschrieben ist, kann das Licht empfangende Gerät auch ein anderes Gerät wie eine CMOS-Kamera sein, die im We sentlichen die gleichen Funktionen wie die CCD-Kamera hat, oder alternativ ein positionsempfindlicher Detektor (position sensitive detector; PSD) zur Berechnung der (zweidimensionalen) Position des Schwerpunkts der Verteilung des empfangenen Lichtes, wenn das Ziel 31 als Punktlichtquelle betrachtet werden kann. Wenn die CCD-Kamera durch ein solches alternatives Gerät ersetzt wird, wird natürlich die Bildverarbeitungseinheit 2 durch eine andere auf das alternative Gerät abgestimmte Einheit ersetzt. Wenn z. B. der PSD verwendet wird, wird eine Verarbeitungseinheit mit einer Funktion zur Berechnung der (zweidimensionalen) Position des Schwerpunkts der Verteilung des empfangenen Lichtes durch Verarbeiten eines Ausgangssignals vom PSD verwendet.
  • Im Folgenden wird ein Beispiel eines Prozesses für die dreidimensionale Position des Ziels 31 gemäß der Erfindung beschrieben. Obwohl das Licht empfangende Gerät die mit der Bildverarbeitungseinheit 2 verbundene (CCD-)Kamera ist, können die Kamera und die Bildverarbeitungseinheit durch ein anderes Licht empfangendes Gerät bzw. eine andere Signalverarbeitungseinheit ersetzt werden, wie oben beschrieben worden ist. Der gesamte bei der Ausführungsform ausgeführte Prozess ist in einem Flussdiagramm von 10 dargestellt und wird nunmehr anhand des Flussdiagramms beschrieben.
  • Schritte T1 und T2
  • Ein Basisprozess der Erfindung besteht darin, die Position des Ziels 31 auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts zu einen vorgegebenen Punkt oder einem Referenzpunkt auf der Licht empfangenden Oberfläche zu bewegen, um Daten der visuellen Linie 40 ohne Kalibrierung gemäß dem Stand der Technik zu erhalten.
  • In Schritt T1 wird das Handhabungsgerät 1a des Roboters 1 in eine Ausgangsposition bewegt, in der das Sichtfeld der Kamera 4 das Bild des Ziels 31 enthält. Danach wird in Schritt T2 ein Bewegungsprozess zu einer vorgegebenen Position oder einer Referenzposition ausgeführt. Beim Bewegungsprozess wird das Licht empfangende Gerät so bewegt, dass die Position des Ziels 31 auf der Licht empfangenden Oberfläche bewegt wird und mit dem Referenzpunkt zusammenfällt (oder zu einem Punkt kommt, in dem der Abstand zwischen dem Punkt und dem Referenzpunkt innerhalb eines vorgegebenen Bereichs liegt).
  • Bei der Ausführungsform ist der Referenzpunkt der Mittelpunkt der Licht empfangenden Oberfläche (oder der CCD-Matrix). 5 zeigt die Bewegung des Bildes des Ziels 31 zum Mittelpunkt der Licht empfangenden Oberfläche mittels einer Anzeige auf dem Monitor 3.
  • Die Anzeige auf dem Monitor 3 ist so konfiguriert, dass der Mittelpunkt M der Anzeige dem Mittelpunkt der Licht empfangenden Oberfläche der Kamera 4 entspricht.
  • Es wird angenommen, dass das Bild des Ziels 31 in einem mit 31a gekennzeichneten Punkt positioniert ist, wie in 5 dargestellt, wenn das Handhabungsgerät 1a in der Ausgangsposition positioniert ist. In diesem Fall sollte das Handhabungsgerät 1a so bewegt werden, dass das Bild 31a auf der Anzeige nach unten links zum Punkt M bewegt wird. Da jedoch die Positionsbeziehung zwischen dem Handhabungsgerät 1a und der Kamera 4 vor der Bewegung des Handhabungsgeräts unbekannt ist, kann die Richtung, in der das Handhabungsgerät 1a bewegt werden sollte, nicht auf Basis der Position des Ziels auf der Anzeige bestimmt werden. Es muss deshalb vorher bestimmt werden, wie das Handhabungsgerät 1a bewegt werden sollte, damit sich das Bild 31a des Ziels 31 zu einem gewünschten Punkt (oder in diesem Fall zum Punkt M) bewegt.
  • Konkret gesagt, wird das Handhabungsgerät in drei Richtungen (d. h. in X-, Y- und Z-Achsenrichtung) des Koordinatensystems Σf der mechanischen Berührungsfläche in 2 bewegt und die Bewegung des Bildes 31a des Ziels 31, die der Bewegung des Handhabungsgerät entspricht, beobachtet, wodurch die Beziehung zwischen der Bewegungsrichtung des Handhabungsgeräts 1a und der Bewegungsrichtung des Bildes des Ziels auf der Anzeige sowie die Beziehung zwischen dem Bewegungsweg des Handhabungsgeräts 1a und dem Bewegungsweg des Bildes des Ziels auf der Anzeige bestimmt werden können. Wenn diese Prozedur ausgeführt wird, nachdem die Kamera 4 am oder um das Ende des Handhabungsgeräts 1a angebracht oder befestigt worden ist, ist es nicht erforderlich, die Prozedur später auszuführen. Obwohl sich die Position und die Ausrichtung des Ziels im Koordinatensystems Σf während der Abbildung durch die Bewegung des Handhabungsgeräts 1a ändern, ändert sich die Positionsbeziehung zwischen dem Koordinatensystem Σf und der (Licht empfangenden Oberfläche) der Kamera 4 niemals, es sei denn, die Einstellbedingung der Kamera 4 am Handhabungsgerät 1a wird geändert.
  • Da die Bestimmung der relativen Richtung und das Verhältnis der Bewegungswege des Handhabungsgeräts und des Ziels auf der Anzeige durch die obige Prozedur bekannt sind, wird auf eine detaillierte Beschreibung der Prozedur verzichtet. Es wird angenommen, dass die obige Prozedur oder die Vorbereitung in den folgenden Schritten bereits abgeschlossen worden sind.
  • Ein Beispiel eines Prozesses, in dem das Bild 31a des von der Kamera abgebildeten Ziels mit dem Referenzpunkt M auf der Anzeige zur Deckung gebracht wird, ist im Flussdiagramm von 9 angegeben. Die Schritte des Flussdiagramms werden nachstehend beschrieben.
  • Schritt S1
  • Das zu messende Ziel 31 wird abgebildet, wodurch das in 5a dargestellte Bild 31a erhalten wird.
  • Schritt S2
  • Die Bildverarbeitungseinheit 2 berechnet die Position des Ziels 31 (oder die Position des Bildes 31a) auf der Anzeige.
  • Schritt S3
  • Die Haupt-CPU 11 oder ein geeigneter Bestimmungsteil bestimmt, ob die in Schritt S2 berechnete Position mit einem vorgegebenen Punkt (in diesem Fall, dem Punkt M) zusammenfällt oder nicht. Wenn z. B. der Abstand zwischen dem Punkt M und dem Bild 31a auf der Anzeige gleich ist oder kleiner als ein vorgegebener Schwellenwert (δBild), bewertet die CPU 11 diese Situation als "Deckungsgleichheit", und der Prozess wird beendet. Wenn dagegen der Abstand größer ist als der Schwellenwert (δBild), bewertet die CPU 11 dies als "Nichtübereinstimmung", und der Prozess geht zu Schritt S4 weiter. Der Abstand auf der Anzeige kann z. B. durch Zählen der Anzahl quadratischer Bildelemente berechnet werden.
  • Schritt S4
  • Ein Befehl zur Parallelverschiebung des Roboters, um das Bild 31a des Ziels auf der Anzeige zum Punkt M zu bewegen, wird erstellt. In diesem Fall bedeutet ein Parallelverschiebungsbefehl einen Bewegungsbefehl zur Bewegung des Handhabungsgeräts in einer solchen Weise, dass die Ausrichtung des Handhabungsgeräts oder des Koordinatensystems Σf relativ zum Roboterkoordinatensystem Σb fixiert ist.
  • Schritt S5
  • Das Handhabungsgerät 1a wird auf Basis des in Schritt S4 erstellten Befehls zur Parallelverschiebung bewegt. Nach der Bewegung des Handhabungsgeräts geht der Prozess zu Schritt S1 zurück. Der Zyklus der oben beschriebenen Schritte wird so oft wiederholt, bis die Bewertung durch die CPU 11 in Schritt S2 "Deckungsgleichheit" erreicht ist.
  • Schritt T3
  • Wenn der obige Prozess zur Bewegung des Referenzpunktes abgeschlossen ist, d. h. wenn sich das Handhabungsgerät aus seiner Ausgangsposition, in der das Bild des Ziels mit 31a angegeben ist, in die Position bewegt hat, in der das Bild mit 31b angegeben ist, wo es mit dem Mittelpunkt M zusammenfällt, wird die Position Qf1 des Koordinatensystems Σf in diesem Zeitpunkt relativ zum Roboterkoordinatensystem Σb erhalten und gespeichert.
  • Schritt T4
  • Anschließend wird die Ausrichtung der visuellen Linie 40 berechnet. Die visuelle Linie 40 ist eine Gerade, die vom Punkt M auf der Empfangsoberfläche der Kamera, der dem Mittelpunkt der Anzeige entspricht, über den Mittelpunkt der Abbildungslinse zum Ziel 31 verläuft. Bei der Ausführungsform wird die Richtung der Geraden relativ zum Koordinatensystem Σf, das die mechanische Berührungsfläche des Roboters repräsentiert, berechnet. Zu diesem Zweck wird zuerst das Handhabungsgerät 1a durch den Prozess von Schritt T4 parallel verschoben.
  • 6 ist ein Diagramm zur Erläuterung des Prozesses. Ein Koordinatensystem Σv1 ist zur Berechnung der Ausrichtung der Sichtlinie 40 eingestellt und erfüllt die folgenden Bedingungen:
    • (I) Die Koordinaten Σf und Σv1 haben denselben Ursprung.
    • (II) Die Richtung der Z-Achse des Koordinatensystems Σv1 fällt mit der Richtung der visuellen Linie 40 zusammen.
  • Die Richtung der Z-Achse der Koordinate Σv1 des Koordinatensystems Σf wird berechnet, wenn der Prozess zur Bewegung des Referenzpunktes beendet ist. Insbesondere werden die Komponenten (W, P) eines Euler-Winkels (W, P, R), der die Ausrichtung des Koordinatensystems Σv1 im Koordinatensystems Σf repräsentiert, berechnet.
  • Zu diesem Zweck wird die Parallelverschiebung gemäß Schritt T4 ausgeführt. Bei der Parallelverschiebung wird das in einer ersten Position positionierte Handhabungsgerät 1a ohne die Ausrichtung der Kamera zu ändern in eine zweite Position bewegt, wo der Abstand zwischen der Kamera und dem Ziel verschieden ist von dem in der ersten Position (siehe Pfeil A in 6). Die Bezugszeichen 4a und 4b in 6 kennzeichnen die Kamera vor bzw. nach der Parallelverschiebung.
  • Schritte T5 und T6
  • Nach der Parallelverschiebung in Schritt T4 weicht im Allgemeinen das Bild des Ziels 31 vom Mittelpunkt M der Anzeige (oder vom Mittelpunkt der Licht empfangenden Oberfläche) ab. Deshalb wird der obige Prozess zur Bewegung zum Referenzpunkt wie bezüglich Schritt T2 beschrieben, erneut ausgeführt (Schritt T5), wodurch das Bild des Ziels 31 wieder mit dem Punkt M zur Deckung kommt. Wenn Schritt T5 beendet ist, wird eine Position Qf2 des Koordinatensystems Σf relativ zum Roboterkoordinatensystem Σb erhalten und gespeichert (Schritt T6).
  • Schritt T7
  • Die Ausrichtung der visuellen Linie 40 wird durch eine Gerade repräsentiert, die von der Position Qf1, die in Schritt T3 berechnet wurde, zur Position Qf2 verläuft, die in Schritt T6 berechnet wurde. Der Euler-Winkel (W, P, R), der die Ausrichtung des Koordinatensystems Σv1 relativ zum Koordinatensystem Σf repräsentiert, kann wie folgt berechnet werden:
    Figure 00160001
    P = tan–1(dxdZ ) R = 0;dabei sind dX, dY und dZ Komponenten des Abstands zwischen den Positionen Qf1 und Qf2 im Koordinatensystem Σf vor der Parallelverschiebung des Handhabungsgeräts in Schritt T4.
  • Das Koordinatensystem Σv1 kann mit den obigen Gleichungen berechnet werden, und die Ausrichtung der visuellen Linie 40 fällt mit der Richtung der Z-Achse das Koordinatensystems zusammen.
  • Schritte T8 bis T11
  • Nachdem die Ausrichtung der visuellen Linie 40 in Schritt 17 berechnet worden ist, wird die Position der visuellen Linie in den folgenden Schritten berechnet. Die 7a und 7b sind erläuternde Diagramme zu diesen Schritten. In 7b repräsentiert ein Koordinatensystem Σv2, das Σv von 2 entspricht, die Position und die Ausrichtung der visuellen Linie 40 und erfüllt die folgenden Bedingungen:
    • (III) Der Ursprung des Koordinatensystems Σv2 liegt auf der visuellen Linie 40.
    • (IV) Die Richtung der Z-Achse des Koordinatensystems Σv2 fällt mit der Richtung der visuellen Linie 40 zusammen.
  • Die Ausrichtung der visuellen Linie 40 ist bereits als die Richtung der Z-Achse des Koordinatensystems Σv1 berechnet worden (siehe 7a), und die Richtung der Z-Achse des Koordinatensystems Σv2 fällt mit der Richtung der Z-Achse des Koordinatensystems Σv1 zusammen. Um den Ursprung zu bestimmen, wird das Handhabungsgerät so bewegt, dass die Position Qf1 um 180° um die Z-Achse des Koordinatensystems Σv1 gedreht (Schritt T8), und dann der obige Prozess zur Bewegung des Referenzpunktes erneut ausgeführt wird (Schritt T9). 7a zeigt den Zustand, in dem diese Drehung (siehe Pfeil B) und der Prozess zur Bewegung zum Referenzpunkt abgeschlossen sind, und 7b zeigt die Position des Ursprungs des Koordinatensystems Σv2. Die Position des Ursprungs des Koordinatensystems Σv2 wird als Mittelpunkt der Punkte des Koordinatensystems Σf vor und nach der Drehung bestimmt.
  • Im konkreten Fall wird nach der Beendigung der obigen Drehung die Position Qf3 des Koordinatensystems Σf erhalten und gespeichert (Schritt T10). Der Ursprung des Koordinatensystems Σv2 wird als Mittelpunkt der Positionen Qf1 und Qf3 bestimmt.
  • Die Position des Ursprungs (X, Y, Z) des Koordinatensystems Σv2 relativ zum Koordinatensystem Σf kann wie folgt berechnet werden: X = dX2 Y = dY2 Z = dZ2 dabei sind dX, dY und dZ Komponenten des Abstands zwischen den Positionen Qf1 und Qf3 im Koordinatensystem Σf vor der Bewegung des Handhabungsgeräts in Schritt T8.
  • Da die Ausrichtung des Koordinatensystems Σv2 mit der Ausrichtung des Koordinatensystems Σv1 zusammenfällt, können Ausrichtung und Position des Koordinatensystems Σv2 relativ zum Koordinatensystem Σf vor der Bewegung des Handhabungsgeräts in Schritt T8 berechnet werden (Schritt T11). Im Folgenden wird eine Matrix zur Berechnung der Ausrichtung und Position des Koordinatensystems Σv2 mit [V] gekennzeichnet.
  • Schritte T12 bis T15
  • Abschließend werden die Schritte zur Berechnung der dreidimensionalen Position des zu messenden Ziels auf Basis der Ausrichtung und Position der visuellen Linie ausgeführt. 8 ist ein Diagramm zur Erläuterung der Schritte. Das Handhabungsgerät wird so geneigt oder bewegt, dass die Position Qf1 um die Y-Achse des Koordinatensystems Σv2 gedreht wird (Schritt T12). Danach wird der obige Prozess zur Bewegung des Referenzpunktes ausgeführt (Schritt T13). In 8 ist die Position, in der die Neigung abgeschlossen ist, mit der visuellen Linie 40b gekennzeichnet. Das Koordinatensystem Σv2 wird zu Σv2' bewegt. Diesbezüglich ist die visuelle Linie vor der Neigung mit dem Bezugszeichen 40a gekennzeichnet. Nachdem Schritt T13 abgeschlossen ist, wird die Position Qf4 des Handhabungsgeräts erhalten und gespeichert (Schritt T14).
  • Die visuelle Linie relativ zum Koordinatensystem Σf kann mit der Matrix [V] berechnet werden, wenn sich das Handhabungsgerät in der Position Qf1 befindet. Wenn sich das Handhabungsgerät dagegen in der Position Qf4 befindet, kann die visuelle Linie wie nachstehend angegeben dargestellt werden: Qf1–1·Qf4·[V]
  • Ein geeigneter dritter Arithmetikteil der Haupt-CPU 11 berechnet auf Basis der obigen Gleichungen die Position des Schnittpunktes der Z-Achsen der Koordinaten Σv2 und Σv2', um die dreidimensionale Position des Ziels 31 zu bestimmen (Schritt T15).
  • Da die oben beschriebenen Schritte Beispiele sind, sind folgende Modifikationen möglich:
    • (a) Obwohl in Schritt T8 (7a und 7b) das Handhabungsgerät so bewegt wird, dass die Position Qf1 180° um die Z-Achse des Koordinatensystems Σv1 gedreht wird, braucht der Rotationswinkel nicht 180° zu betragen. Ferner kann die Bewegung der Position Qf1 eine zusammengesetzte Bewegung sein, die die Drehung um die Z-Achse und eine andere Aktion enthält.
    • (b) Obwohl in Schritt T12 (8) das Handhabungsgerät so geneigt oder bewegt wird, dass die Position Qf1 um die Y-Achse des Koordinatensystems Σv2 gedreht wird, kann die Bewegung der Position Qf1 eine zusammengesetzte Bewegung sein, die die Drehung um eine Achse senkrecht zur Z-Achse und eine andere Aktion enthält.
  • Wenn gemäß der vorliegenden Erfindung das Ziel durch ein Licht empfangendes Gerät wie eine Kamera oder ein PSD, die bzw. der am Ende des Handhabungsgeräts des Roboters angebracht ist, kann die von der Kamera zum Ziel verlaufende visuelle Linie ohne Kalibrierung unter Verwendung einer exklusiven Kalibrierplatte wie im Stand der Technik auf einfache Weise erhalten werden.
  • Außerdem beeinflusst eine geometrische Verzerrung des Licht empfangenden Geräts oder einer Linse der Kamera die Messung nicht, da die Position des Ziels auf Basis von Daten berechnet wird, die erhalten werden, wenn das Bild des Ziels in einer vorgegebenen Position auf der Anzeige positioniert ist. Als Ergebnis kann die Messung mit hoher Präzision und auf einfache Weise ausgeführt werden.
  • Da die von der Kamera zum Ziel verlaufende visuelle Linie wie oben erwähnt auf einfache Weise erhalten werden kann, lässt sich ein messungsbereiter Zustand selbst dann leicht rekonstruieren, wenn die Positionsbeziehung zwischen der Kamera und dem Roboter so geändert wird, dass die Messung nicht ausführbar ist. Mit anderen Worten, es kann ein Messsystem aufgebaut werden, bei dem die Kamera bei Bedarf am Ende des Handhabungsgeräts angebracht und nach der Messung abgenommen werden kann. Es ist vorteilhaft, dass der Roboter als ein Bestandteil des Messsystems nur dann verwendet wird, wenn die Messung ausgeführt wird, und sonst für andere Anwendungen eingesetzt werden kann.
  • Obwohl die Erfindung unter Bezugnahme auf bestimmte Ausführungsformen, die zum Zweck der Verdeutlichung gewählt worden sind, beschrieben worden ist, dürfte auf der Hand liegen, dass der Fachmann zahlreiche Modifikationen vornehmen kann, ohne vom Grundkonzept und Gültigkeitsbereich der Erfindung wie beansprucht abzuweichen.

Claims (18)

  1. Messverfahren zum Messen der Position eines Ziels (31), das relativ zu einem Roboter (1) mit einem Handhabungsgerät (1a) zu messen ist, wobei das Verfahren aufweist: Vorbereiten eines Licht empfangenden Geräts (4), das am Handhabungsgerät (1a) angebracht wird; Positionieren des Handhabungsgeräts (1a) in einer Ausgangsposition; Berechnen der Position eines Bildes des Ziels (31) auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts (4), wobei das Ziel (31) auf der Licht empfangenden Oberfläche abgebildet wird; Berechnen des Bewegungswegs des Handhabungsgeräts (1a), durch den die Position des Bildes des Ziels (31) auf der Licht empfangenden Oberfläche mit einem vorgegebenen Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt; Bewegen des Handhabungsgeräts (1a) entsprechend dem Bewegungsweg; Berechnen der Ausrichtung einer visuellen Linie (40) des Licht empfangenden Geräts (4) relativ zu einer Roboterkoordinate auf Basis von mindestens zwei Positionen des Handhabungsgeräts (1a) nach der Bewegung des Handhabungsgeräts (1a) in der Weise, dass das Bild des Ziels (31) mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die mindestens zwei Positionen so bestimmt werden, dass die Ausrichtungen des Licht empfangenden Geräts (4) in den zwei Positionen gleich sind, und die Abstände zwischen dem Licht empfangenden Gerät (4) und dem Ziel (31) in den zwei Positionen voneinander verschieden sind; Berechnen der Position der visuellen Linie (40) des Licht empfangenden Geräts (4) relativ zur Roboterkoordinate auf Basis der Ausrichtung der visuellen Linie (40) und der mindestens zwei Positionen des Handhabungsgeräts (1a) nach der Bewegung des Handhabungsgeräts (1a) in der Weise, dass das Bild des Ziels (31) mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung des Licht empfangenden Geräts (4) durch eine Bewegung einschließlich einer Drehung um eine Achse parallel zur Ausrichtung der visuellen Linie (40) geändert wird; und Berechnen der dreidimensionalen Position des Ziels (31) relativ zur Roboterkoordinate auf Basis der Ausrichtung und der Position der visuellen Linie (40) und der mindestens zwei Positionen des Handhabungsgeräts (1a) nach der Bewegung des Handhabungsgeräts (1a) in der Weise, dass das Bild des Ziels (31) mit dem vorgegebenen Referenzpunkt zusammenfällt, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung und die Position des Licht empfangenden Geräts (4) durch eine Bewegung einschließlich einer Drehung um eine Achse senkrecht zur Ausrichtung der visuellen Linie (40) geändert werden.
  2. Messverfahren nach Anspruch 1, ferner nach der Bewegung des Handhabungsgeräts (1a) und vor dem Speichern der Position des Handhabungsgeräts (1a) den Schritt der Bestimmung aufweisend, ob die Position des Ziels (31), das auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts (4) abgebildet wird, mit dem Referenzpunkt zusammenfällt, wenn der Abstand zwischen ihnen innerhalb eines vorgegebenen Fehlerbereichs liegt.
  3. Messverfahren nach Anspruch 2, bei dem die Position des Handhabungsgeräts (1a) nach der Bewegung als Ausgangsposition erneut eingestellt wird, wenn bestimmt wird, dass die Position des Bildes des Ziels (31) nicht mit dem Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt.
  4. Messverfahren nach einem der vorigen Ansprüche, bei dem eine Bewegung des Bildes des Ziels (31) entsprechend einer Bewegung des Handhabungsgeräts (1a) beobachtet wird.
  5. Messverfahren nach einem der vorigen Ansprüche, bei dem die Position des Bildes des Ziels (31) auf der Licht empfangenden Oberfläche zu einem Punkt bewegt wird, in dem der Abstand zwischen der Position des Bildes des Ziels (31) auf der Licht empfangenden Oberfläche und dem Referenzpunkt auf der Licht empfangenden Oberfläche innerhalb eines vorgegebenen Bereichs liegt.
  6. Messverfahren nach einem der vorigen Ansprüche, bei dem der Referenzpunkt auf der Licht empfangenden Oberfläche im Allgemeinen in der Mitte der Licht empfangenden Oberfläche positioniert ist.
  7. Messverfahren nach einem der vorigen Ansprüche, bei dem das Licht empfangende Gerät (4) abnehmbar um das Ende des Handhabungsgeräts (1a) angebracht ist, so dass das Licht empfangende Gerät (4) um das Ende des Handhabungsgeräts (1a) angebracht werden kann, wenn eine Messung ausgeführt wird, und nach der Messung abgebaut werden kann.
  8. Messverfahren nach einem der vorigen Ansprüche, bei dem das Licht empfangende Gerät (4) abnehmbar um das Ende des Handhabungsgeräts (1a) angebracht ist, so dass der Roboter (1) zur Messung der Position eines relativ zum Roboter (1) zu messenden Objekts (30) verwendet werden kann, indem das Licht empfangende Gerät (4) um das Ende des Handhabungsgeräts (1a) angebracht wird, und der Roboter (1) nach der Messung für eine von der Messung verschiedene Anwendung eingesetzt werden kann, wenn das Licht empfangende Gerät (4) abgebaut wird.
  9. Messverfahren nach einem der vorigen Ansprüche, bei dem das Licht empfangende Gerät (4) eine Kamera zur Abbildung eines zweidimensionalen Bildes ist.
  10. Messsystem zum Messen der Position eines Ziels (31), das relativ zu einem Roboter (1) mit einem Handhabungsgerät (1a) zu messen ist, wobei das Messsystem aufweist: ein Licht empfangendes Gerät (4), das am Handhabungsgerät (1a) angebracht wird; ein Steuergerät (10) zur Positionierung des Handhabungsgeräts (1a) in einer Ausgangsposition; und eine Bildverarbeitungseinheit (2) zum Berechnen der Position des Ziels (31) auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts (4), wobei das Ziel auf der Licht empfangenden Oberfläche abgebildet wird; wobei die Steuereinheit (10) aufweist: einen ersten Arithmetikteil (11a) zum Berechnen des Bewegungswegs des Handhabungsgeräts (1a), durch den die Position des Bildes des Ziels (31) auf der Licht empfangenden Oberfläche, die von der Bildverarbeitungseinheit (2) berechnet wird, mit einem vorgegebenen Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt; einen Antriebssteuerteil (15) zum Bewegen des Handhabungsgeräts (1a) entsprechend dem Bewegungsweg; einen zweiten Arithmetikteil (11b) zum Berechnen der Ausrichtung und der Position einer visuellen Linie (40) des Licht empfangenden Geräts (4) relativ zu einer Roboterkoordinate auf Basis einer Mehrzahl Positionen des Handhabungsgeräts (1a); und einen dritten Arithmetikteil (11c) zum Berechnen der dreidimensionalen Position des Ziels (31) relativ zur Roboterkoordinate auf Basis der Ausrichtung und Position der visuellen Linie (40); wobei das Messsystem weiter dadurch gekennzeichnet ist, dass der zweite Arithmetikteil (11b) die Ausrichtung der visuellen Linie (40) des Licht empfangenden Geräts (4) relativ zur Roboterkoordinate auf Basis der mindestens zwei Positionen des Handhabungsgeräts (1a), nachdem es so bewegt worden ist, dass das Bild des Ziels (31) mit dem vorgegebenen Referenzpunkt zusammenfällt, berechnet, wobei die mindestens zwei Positionen so bestimmt werden, dass die Ausrichtungen des Licht empfangenden Geräts (4) in den zwei Positionen gleich sind, und die Abstände zwischen dem Licht empfangenden Gerät (4) und dem Ziel (31) in den zwei Positionen voneinander verschieden sind; der zweite Arithmetikteil (11b) die Position der visuellen Linie (40) des Licht empfangenden Geräts (4) relativ zur Roboterkoordinate auf Basis der Ausrichtung der visuellen Linie (40) und mindestens zweier Positionen des Handhabungsgeräts (1a), nachdem es so bewegt worden ist, dass das Bild des Ziels (31) mit dem vorgegebenen Referenzpunkt zusammenfällt, berechnet, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung des Licht empfangenden Geräts (4) durch eine Bewegung einschließlich einer Drehung um eine Achse parallel zur Ausrichtung der visuellen Linie (40) geändert wird; und der dritte Arithmetikteil (11c) die dreidimensionale Position des Ziels (31) relativ zur Roboterkoordinate auf Basis der Ausrichtung und der Position der visuellen Linie (40) und der mindestens zwei Positionen des Handhabungsgeräts (1a), nachdem es so bewegt worden ist, dass das Bild des Ziels (31) mit dem vorgegebenen Referenzpunkt zusammenfällt, berechnet, wobei die zwei Positionen bestimmt werden, indem die Ausrichtung und die Position des Licht empfangenden Geräts (4) durch eine Bewegung einschließlich einer Drehung um eine Achse senkrecht zur Ausrichtung der visuellen Linie (40) geändert wird.
  11. Messsystem nach Anspruch 10, ferner einen Bestimmungsteil (11) zur Bestimmung nach der Bewegung des Handhabungsgeräts (1a) und vor dem Speichern der Position des Handhabungsgeräts (1a) aufweisend, ob die Position des Ziels (31), das auf der Licht empfangenden Oberfläche des Licht empfangenden Geräts (4) abgebildet wird, mit dem Referenzpunkt zusammenfällt, wenn der Abstand zwischen ihnen innerhalb eines vorgegebenen Fehlerbereichs liegt.
  12. Messsystem nach Anspruch 11, bei dem die Position des Handhabungsgeräts (1a) nach der Bewegung als Ausgangsposition erneut eingestellt wird, wenn der Bestimmungsteil (11) bestimmt, dass die Position des Bildes des Ziels (31) nicht mit dem Referenzpunkt auf der Licht empfangenden Oberfläche zusammenfällt.
  13. Messsystem nach einem der Ansprüche 10 bis 12, bei dem eine Bewegung des Bildes des Ziels (31) entsprechend einer Bewegung des Handhabungsgeräts (1a) beobachtet wird.
  14. Messsystem nach einem der Ansprüche 10 bis 13, bei dem die Position des Bildes des Ziels (31) auf der Licht empfangenden Oberfläche zu einem Punkt bewegt wird, in dem der Abstand zwischen der Position des Bildes des Ziels (31) auf der Licht empfangenden Oberfläche und dem Referenzpunkt auf der Licht empfangenden Oberfläche innerhalb eines vorgegebenen Bereichs liegt.
  15. Messsystem nach einem der Ansprüche 10 bis 14, bei dem der Referenzpunkt auf der Licht empfangenden Oberfläche im Allgemeinen in der Mitte der Licht empfangenden Oberfläche positioniert ist.
  16. Messsystem nach einem der Ansprüche 10 bis 15, bei dem das Licht empfangende Gerät (4) abnehmbar um das Ende des Handhabungsgeräts (1a) angebracht ist, so dass das Licht empfangende Gerät (4) um das Ende des Handhabungsgeräts (1a) angebracht werden kann, wenn eine Messung ausgeführt wird, und nach der Messung abgebaut werden kann.
  17. Messsystem nach einem der Ansprüche 10 bis 16, bei dem das Licht empfangende Gerät (4) abnehmbar um das Ende des Handhabungsgeräts (1a) angebracht ist, so dass der Roboter (1) zur Messung der Position eines relativ zum Roboter (1) zu messenden Objekts (30) verwendet werden kann, indem das Licht empfangende Gerät (4) um das Ende des Handhabungsgeräts (1a) angebracht wird, und der Roboter (1) nach der Messung für von der Messung verschiedene Anwendung eingesetzt werden kann, wenn das Licht empfangende Gerät (4) abgebaut wird.
  18. Messsystem nach einem der Ansprüche 10 bis 17, bei dem das Licht empfangende Gerät (4) eine Kamera zur Abbildung eines zweidimensionalen Bildes ist.
DE602005003147T 2004-01-16 2005-01-14 Messsystem Active DE602005003147T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004009848 2004-01-16
JP2004009848A JP4021413B2 (ja) 2004-01-16 2004-01-16 計測装置

Publications (2)

Publication Number Publication Date
DE602005003147D1 DE602005003147D1 (de) 2007-12-20
DE602005003147T2 true DE602005003147T2 (de) 2008-08-28

Family

ID=34616926

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602005003147T Active DE602005003147T2 (de) 2004-01-16 2005-01-14 Messsystem

Country Status (4)

Country Link
US (1) US7532949B2 (de)
EP (1) EP1555508B1 (de)
JP (1) JP4021413B2 (de)
DE (1) DE602005003147T2 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9050728B2 (en) 2009-08-03 2015-06-09 Fanuc Ltd Apparatus and method for measuring tool center point position of robot
DE102008042261B4 (de) * 2008-09-22 2018-11-15 Robert Bosch Gmbh Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102008042260B4 (de) * 2008-09-22 2018-11-15 Robert Bosch Gmbh Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102018213398B4 (de) * 2017-08-22 2020-12-10 Fanuc Corporation Robotersystem
US10889003B2 (en) 2017-02-20 2021-01-12 Kabushiki Kaisha Yaskawa Denki Robot system, robot controller, and method for controlling robot
DE102017114985B4 (de) 2016-07-12 2022-02-03 Fanuc Corporation Roboterfehlerteil-Diagnosevorrichtung und Verfahren
DE102015104587B4 (de) 2015-03-26 2022-04-28 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP4137909B2 (ja) * 2005-04-13 2008-08-20 ファナック株式会社 ロボットプログラム補正装置
JP4595042B2 (ja) * 2005-09-30 2010-12-08 コニカミノルタセンシング株式会社 3次元測定方法およびシステム並びにマニピュレータの制御方法および装置
DE102006003555B4 (de) * 2006-01-25 2010-01-21 Edag Gmbh & Co. Kgaa Steuerung für eine Werkzeug-Sensor-Vorrichtung
JP4267005B2 (ja) 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
JP4298757B2 (ja) 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
DE102007033486B4 (de) * 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
GB0809037D0 (en) 2008-05-19 2008-06-25 Renishaw Plc Video Probe
JP5113623B2 (ja) * 2008-05-20 2013-01-09 ファナック株式会社 計測装置を用いてロボットの位置教示を行うロボット制御装置
JP2010139329A (ja) 2008-12-10 2010-06-24 Fanuc Ltd キャリブレーション用の校正治具および校正治具を備えた画像計測システム
JP2010152550A (ja) 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
US8310539B2 (en) * 2009-05-29 2012-11-13 Mori Seiki Co., Ltd Calibration method and calibration device
GB0909635D0 (en) * 2009-06-04 2009-07-22 Renishaw Plc Vision measurement probe
JP2011067889A (ja) * 2009-09-25 2011-04-07 Ihi Corp キャリブレーション装置及びキャリブレーション方法
RU2456542C2 (ru) * 2010-05-12 2012-07-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики" (НИУ ИТМО) Способ измерения линейного смещения объекта и устройство для его осуществления
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5494267B2 (ja) * 2010-06-15 2014-05-14 セイコーエプソン株式会社 三次元形状計測装置、三次元形状計測装置のキャリブレーション方法、およびロボット装置
US9031697B2 (en) 2011-04-15 2015-05-12 Irobot Corporation Auto-reach method for a remote vehicle
JP5382053B2 (ja) * 2011-04-15 2014-01-08 株式会社安川電機 ロボットシステムおよびロボットシステムを用いた検査方法
JP2012223839A (ja) * 2011-04-15 2012-11-15 Yaskawa Electric Corp ロボットシステムおよびロボットシステムの駆動方法
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
US9279661B2 (en) 2011-07-08 2016-03-08 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9437005B2 (en) 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
CN102501252A (zh) * 2011-09-28 2012-06-20 三一重工股份有限公司 一种控制执行臂末端运动的方法及控制系统
TW201315577A (zh) * 2011-10-03 2013-04-16 Hon Hai Prec Ind Co Ltd 機械手臂運動控制系統及方法
JP6031368B2 (ja) * 2013-01-31 2016-11-24 本田技研工業株式会社 ワークとの相関位置決め方法
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
CN103195251B (zh) * 2013-03-28 2015-06-10 中联重科股份有限公司 臂架末端的运动控制方法、装置、系统和多节臂架车辆
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
CN104019743A (zh) * 2014-06-06 2014-09-03 清华大学深圳研究生院 机械手位姿精度测试系统
CN104227724B (zh) * 2014-08-28 2017-01-18 北京易拓智谱科技有限公司 一种基于视觉识别的通用机器人末端位置的操控方法
JP2016070762A (ja) * 2014-09-29 2016-05-09 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
CN104808490B (zh) * 2015-03-10 2017-04-19 浙江工业大学 一种面向模具保护的无标定视觉伺服控制方法
CN104808554B (zh) * 2015-04-20 2017-12-01 深圳市文鼎创数据科技有限公司 一种自动拾卡系统及其拾卡方法
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
DE102016116702B4 (de) 2015-09-14 2019-01-24 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
JP6126183B2 (ja) 2015-10-05 2017-05-10 ファナック株式会社 ターゲットマークを撮像するカメラを備えたロボットシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
CN105423921B (zh) * 2015-12-24 2018-03-16 吉林大学 基于机器视觉的汽车空间特征点位置柔性检测系统
US9815204B2 (en) * 2016-01-22 2017-11-14 The Boeing Company Apparatus and method to optically locate workpiece for robotic operations
CN107917666A (zh) * 2016-10-09 2018-04-17 上海铼钠克数控科技股份有限公司 双目视觉装置及坐标标定方法
TWI614103B (zh) * 2016-10-21 2018-02-11 和碩聯合科技股份有限公司 機械手臂定位方法及應用其的系統
JP6922204B2 (ja) * 2016-12-09 2021-08-18 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
CN106767517B (zh) * 2017-01-18 2019-03-01 重庆市计量质量检测研究院 一种自由曲面内三维缝隙形貌自动采集方法及采集装置
JP6914515B2 (ja) * 2017-07-10 2021-08-04 新明工業株式会社 トー調整ロボット
JP2019097136A (ja) * 2017-11-28 2019-06-20 セイコーエプソン株式会社 ロボット、アナログデジタル変換器、及び、固体撮像装置
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6904927B2 (ja) 2018-07-30 2021-07-21 ファナック株式会社 ロボットシステムおよびキャリブレーション方法
CN110823922A (zh) * 2018-08-10 2020-02-21 鸿富锦精密电子(天津)有限公司 外观检测装置
US10871366B2 (en) 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
US10751883B2 (en) * 2018-08-16 2020-08-25 Mitutoyo Corporation Robot system with supplementary metrology position coordinates determination system
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
KR102561103B1 (ko) * 2018-11-16 2023-07-31 삼성전자주식회사 로봇 보정 시스템 및 그것의 보정 방법
JP7372513B2 (ja) * 2018-12-05 2023-11-01 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
US10369698B1 (en) 2019-03-07 2019-08-06 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
CN113597362A (zh) * 2019-03-25 2021-11-02 Abb瑞士股份有限公司 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置
US11173610B2 (en) * 2019-11-13 2021-11-16 Vicarious Fpc, Inc. Method and system for robot control using visual feedback
CN110954023A (zh) * 2019-12-23 2020-04-03 芜湖哈特机器人产业技术研究院有限公司 一种多功能视觉实验台及其工作方法
US20230339117A1 (en) 2020-04-13 2023-10-26 Fanuc Corporation Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
WO2023067659A1 (ja) 2021-10-18 2023-04-27 ファナック株式会社 制御装置
CN116512260B (zh) * 2023-05-10 2023-10-27 江苏普达迪泰科技有限公司 一种用于相机测量坐标系标定的装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02198791A (ja) 1989-01-21 1990-08-07 Omron Tateisi Electron Co 視覚ロボットの座標系校正方法
JPH02194302A (ja) 1989-01-23 1990-07-31 Omron Tateisi Electron Co 視覚ロボットの座標系校正方法およびその方法に用いる座標系校正用変位計測装置
JP2698660B2 (ja) * 1989-06-12 1998-01-19 株式会社日立製作所 マニピュレータの制御方法及び制御装置並びにマニピュレータ装置
US5086401A (en) * 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US5279309A (en) * 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
JPH05277973A (ja) 1991-12-25 1993-10-26 Sanyo Electric Co Ltd マニピュレータのキャリブレーション方法
JPH07328971A (ja) 1994-06-08 1995-12-19 Toshiba Corp Tvカメラ付マニピュレータ
JPH0847881A (ja) 1994-08-05 1996-02-20 Ishikawajima Harima Heavy Ind Co Ltd ロボットの遠隔操作方法
JPH08272414A (ja) * 1995-03-29 1996-10-18 Fanuc Ltd ロボットとハンドカメラを用いた視覚センサのキャリブレーション方法
JP2925072B2 (ja) * 1996-08-07 1999-07-26 ファナック株式会社 ロボットの位置教示のための移動制御方式
JPH1063317A (ja) 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JPH1080882A (ja) 1996-09-06 1998-03-31 Fujitsu Ltd ロボット用座標変換パラメータ測定方法
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
JP2000131060A (ja) 1998-10-29 2000-05-12 Mitsubishi Electric Corp 測量装置及び測量方法
JP2001349707A (ja) 2000-06-12 2001-12-21 Asia Air Survey Co Ltd 移動体の3次元位置計測システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008042261B4 (de) * 2008-09-22 2018-11-15 Robert Bosch Gmbh Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
DE102008042260B4 (de) * 2008-09-22 2018-11-15 Robert Bosch Gmbh Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
US9050728B2 (en) 2009-08-03 2015-06-09 Fanuc Ltd Apparatus and method for measuring tool center point position of robot
DE102010032840B4 (de) * 2009-08-03 2015-06-18 Fanuc Corporation Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE102015104587B4 (de) 2015-03-26 2022-04-28 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102017114985B4 (de) 2016-07-12 2022-02-03 Fanuc Corporation Roboterfehlerteil-Diagnosevorrichtung und Verfahren
US10889003B2 (en) 2017-02-20 2021-01-12 Kabushiki Kaisha Yaskawa Denki Robot system, robot controller, and method for controlling robot
DE102018202322B4 (de) * 2017-02-20 2021-02-11 Kabushiki Kaisha Yaskawa Denki Robotersystem, Robotersteuervorrichtung und Robotersteuerverfahren
DE102018213398B4 (de) * 2017-08-22 2020-12-10 Fanuc Corporation Robotersystem

Also Published As

Publication number Publication date
JP4021413B2 (ja) 2007-12-12
JP2005201824A (ja) 2005-07-28
US20050159842A1 (en) 2005-07-21
US7532949B2 (en) 2009-05-12
EP1555508B1 (de) 2007-11-07
EP1555508A1 (de) 2005-07-20
DE602005003147D1 (de) 2007-12-20

Similar Documents

Publication Publication Date Title
DE602005003147T2 (de) Messsystem
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE112019004517T5 (de) Roboterkalibrierung für ar (augmented reality) und digitaler zwilling
DE602004013107T2 (de) Vorrichtung zur Korrektur einer gelernten Position
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102016116702B4 (de) Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE112011101730B4 (de) System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
DE102011050640B4 (de) Vorrichtung und Verfahren zum Wiederherstellen der Positionsinformation von Robotern
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
EP1521211B1 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
EP2435217B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE69637413T2 (de) Kompositdetektionssystem für roboter
DE102017002608A1 (de) Positioniersystem unter Verwendung eines Roboters
EP3463766A1 (de) Verfahren zur orientierung eines industrieroboters und industrieroboter
DE102019001038B4 (de) Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
DE102018007287B4 (de) Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
DE112019005484T5 (de) Automatische Kalibrierung für ein Kamera-Robotersystem mit Werkzeugoffsets
DE102010037067B4 (de) Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
DE10164944B4 (de) Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R082 Change of representative

Ref document number: 1555508

Country of ref document: EP

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,