DE102009012590A1 - Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen - Google Patents

Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen Download PDF

Info

Publication number
DE102009012590A1
DE102009012590A1 DE102009012590A DE102009012590A DE102009012590A1 DE 102009012590 A1 DE102009012590 A1 DE 102009012590A1 DE 102009012590 A DE102009012590 A DE 102009012590A DE 102009012590 A DE102009012590 A DE 102009012590A DE 102009012590 A1 DE102009012590 A1 DE 102009012590A1
Authority
DE
Germany
Prior art keywords
workpiece
camera
points
coordinates
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102009012590A
Other languages
English (en)
Inventor
Tsuyoshi Ueyama
Minoru Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Publication of DE102009012590A1 publication Critical patent/DE102009012590A1/de
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37017Calibration of vision system, set correct attidude of sensor to workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

In einer Einrichtung treibt eine Datengewinnungseinheit einen Roboter derart an, dass eine Kamera gegenüber einem Werkstück in einer ersten Richtung bewegt wird, so dass das Werkstück in einem Blickfeld der Kamera erfasst wird. Die Koordinatenbestimmungseinheit gewinnt zweite und dritte Koordinaten eines vorbestimmten Punktes des Roboterarms auf jeweiligen zweiten und dritten Achsen eines dreidimensionalen Koordinatensystems, wobei das Werkstück in dem Blickfeld der Kamera erfasst ist. Die ersten, zweiten und dritten Koordinaten werden als die Koordinaten eines zeitweise definierten Bezugspunktes des Werkstücks in dem dreidimensionalen Koordinatensystem definiert. Eine Stellungsbestimmungseinheit treibt mit einer bestimmten Zeitvorgabe den Roboterarm derart an, dass eine Stellung des vorbestimmten Punktes, basierend auf einer positionsmäßigen Beziehung zwischen den ersten, zweiten und dritten Koordinaten des zeitweise definierten Bezugspunktes auf dem Werkstück und den tatsächlichen Koordinaten des vorbestimmten Punktes des Roboterarms, festgelegt wird.

Description

  • QUERBEZUG AUF ZUGEHÖRIGE ANMELDUNGEN
  • Die vorliegende Anmeldung basiert auf der japanischen Patentanmeldung 2008-062671 , eingereicht am 12. März 2008. Die vorliegende Anmeldung beansprucht die Priorität der japanischen Patentanmeldung, sodass deren Beschreibungen hier durch Bezugnahme voll umfänglich eingeführt wird.
  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft Vorrichtungen zur Bestimmung einer Aufnahmeposition eines Roboterarms mit einem Ende, an welchem eine Kamera befestigt ist.
  • Der Ausdruck „Aufnahmeposition” soll hier mindestens einen der folgenden Begriffe enthalten: Eine Position eines vorbestimmten Punktes des Roboterarms, an welchem ein Bild durch die Kamera aufgenommen werden soll, und eine Orientierung einer vorbestimmten Bezugsachse des Roboterarms, mit welcher ein Bild von der Kamera aufgenommen werden soll.
  • HINTERGRUND DER ERFINDUNG
  • Visuelle Inspektionsvorrichtungen als Beispiele von Inspektionseinrichtungen zur visuellen Prüfung, ob Teile ordnungsgemäß an ihren geplanten Positionen von Werkstücken zusammengebaut sind, werden so konstruiert, dass sie eine solche visuelle Überprüfung unter Verwendung einer Kamera ausführen, welche an einem Ende eines Roboterarms befestigt ist. Ein Beispiel solcher visueller Inspektionsvorrichtungen ist in der japanischen Patentanmeldung Nr. H08-313225 offenbart.
  • In einer derartigen visuellen Inspektionsvorrichtung ist ein Roboterarm, an dessen einem Ende eine Kamera befestigt ist, mit seiner Basis beispielsweise auf dem Boden einer Räumlichkeit montiert, in welcher die visuelle Inspektionsvorrichtung installiert ist.
  • Wenn ein Werkstück in der Räumlichkeit an einem vorbestimmten Prüfort angeordnet ist, dann arbeitet die visuelle Inspektionsvorrichtung in der Weise, dass der Roboterarm bewegt wird, um hierdurch den Roboterarm zu veranlassen, der Reihe nach Objektaufnahmepositionen einzunehmen, in welchen ein Bild von dem Werkstück durch die Kamera aufgenommen werden soll.
  • Die visuelle Inspektionsvorrichtung arbeitet auch in der Weise, dass sie ein Bild in jeder der Objektaufnahmepositionen aufnimmt, die aufgenommenen Bilder in den jeweiligen Objektaufnahmepositionen verarbeitet und eine visuelle Überprüfung des Werkstückes auf der Basis des Ergebnisses der Bildverarbeitung durchführt.
  • In der visuellen Inspektionsvorrichtung ist bezüglich der Objektaufnahmepositionen, in denen jeweils ein Bild eines Werkstückes von der Kamera aufgenommen werden soll, angegeben, dass diese in einem Speicher der visuellen Inspektionsvorrichtung gespeichert werden sollen.
  • Um solche Objektaufnahmepositionen eines Roboterarms, an dessen einem Ende eine Kamera befestigt ist, zu bestimmen, wird normalerweise ein Unterrichtungsgerät verwendet. Das Unterrichtungsgerät ist so ausgebildet, dass es von Hand zu betätigen ist und von Ferne auf eine Steuerung des Roboterarms Zugriff nimmt, um hierdurch die Steuerung zu veranlassen, den Roboterarm an die gewünschten Orte zu bewegen.
  • Im Einzelnen betätigt ein Benutzer von Hand das Unterrichtungsgerät zur Veranlassung des Reglers den Roboterarm zu bewegen, während Bilder eines Werkstückes, das an dem Prüfort angeordnet ist, beobachtet werden. Diese Bilder werden der Reihe nach durch die Kamera in verschiedenen Aufnahmepositionen aufgenommen und der Reihe nach auf einem Wiedergabegerät dargestellt.
  • Wenn festgestellt wird, dass ein Bild eines Werkstückes, welches von der Kamera, die in einer Aufnahmeposition gelegen ist, aufgenommen worden ist, ein gewünschtes Bild für die visuelle Überprüfung des Werkstückes ist, dann betätigt der Benutzer das Unterrichtungsgerät zur Speicherung der Aufnahmeposition als eine Objektaufnahmeposition in dem Gerät.
  • Andererseits offenbart das US-Patent Nr. 6,642,922 entsprechend der japanischen Patentanmeldungsveröffentlichung Nr. H11-242513 eine Technik zur Bestimmung eines Objektortes eines Roboters in Simulationen; diese Technik wird nachfolgend als „Simulationstechnik” bezeichnet.
  • Um die Wirksamkeit der Bestimmung des Objektortes des Roboters zu verbessern, ist die Simulationstechnik im Einzelnen so ausgebildet, dass ein virtuelles kugelförmiges Objekt und eine virtuelle Kamera auf der Oberfläche des virtuellen kugelförmigen Objektes angenommen werden.
  • Die Simulationstechnik bewegt auch virtuell die virtuelle Kamera auf der Oberfläche des virtuellen kugelförmigen Objektes in den folgenden Richtungen: Der Richtung des Äquators des virtuellen kugelförmigen Objektes, einer polaren Umlaufbahn des virtuellen kugelförmigen Objektes und in Richtung des Radius desselben, um hierdurch eine tangentiale Ebene darzustellen, welche ein Ende des Roboterarms enthält, an welchem ein End-Ausführungsorgan befestigbar ist.
  • Dies bestimmt einfach den Objektort für das eine Ende des Roboterarms innerhalb der Tangentialebene.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Wie oben beschrieben betätigt ein Benutzer von Hand ein Unterrichtungsgerät zur Bewegung des Roboterarms unter Beobachtung der Bilder eines Werkstücks, das an einem Prüfort angeordnet ist, um die Objektaufnahmepositionen eines Roboterarm zu bestimmen, an dessen einem Ende eine Kamera befestigt ist. Die genannten Bilder werden der Reihe nach von der Kamera in verschiedenen Aufnahmepositionen aufgenommen.
  • Während des oben beschriebenen Objektaufnahmepositions-Bestimmungsvorgangs kann das an dem Prüfort befindliche Werkstück außerhalb des Blickfeldes (FOV) der Kamera aufgrund eines Fehlers sein. Dies macht eine Bewegung des Roboterarms erforderlich, um das Werkstück wieder in das Blickfeld der Kamera zu bekommen.
  • Nachdem jedoch das Werkstück aus dem Blickfeld der Kamera gekommen ist, kann die Bewegung des Roboterarmes derart, dass das Werkstück im Blickfeld der Kamera erfasst wird, aus folgenden Gründen schwierig sein:
    Zum Ersten mag der Benutzer nicht wissen, in welcher Orientierung das Werkstück mit Bezug auf die Kamera gelegen ist, da kein Bild des Werkstückes auf dem Bildschirm der Wiedergabeeinrichtung dargestellt wird.
  • Zum Zweiten kann der Benutzer, selbst wenn er beim Bewegen des Roboterarms mit dem Unterrichtungsgerät geübt ist, eine beträchtliche Zeit und einen beträchtlichen Aufwand benötigen, um das Werkstück im Blickfeld der Kamera zu erfassen. Dies beruht darauf, dass ein dreidimensionales Koordinatensystem, welches in dem ganzen Rotorarm definiert ist, von demjenigen Koordinatensystem verschieden ist, welches in einem Ende des Roboters definiert ist, an welchem die Kamera befestigt ist.
  • Das dreidimensionale Koordinatensystem der Gesamtheit des Roboterarms liefert drei körperliche Abmessungen des Raumes einschließlich Länge, Breite und Höhe. Die drei Achsen, welche das dreidimensionale Koordinatensystem definieren, stehen aufeinander senkrecht. Das dreidimensionale Koordinatensystem der Gesamtheit des Roboterarms sei nachfolgend als ”Roboterkoordinatensystem” bezeichnet.
  • Wenn der Benutzer wenig Geschick bei der Bewegung des Roboterarms mit dem Unterrichtungsgerät hat, kann es weiter für den Benutzer ein großer Zeitaufwand und großer Anstrengungen bedürfen, um das Werkstück im Blickfeld der Kamera zu erfassen.
  • Um das Werkstück, welches sich an dem Prüfort im Blickfeld der Kamera befindet, zu erfassen, ist in Betracht gezogen, dass solch eine visuelle Inspektionseinrichtung so ausgebildet ist, dass die oben dargelegte Simulationstechnik angewendet wird.
  • Im Einzelnen definiert die visuelle Inspektionseinrichtung das Zentrum des virtuellen kugeligen Objektes als das Zentrum des Werkstückes. Die visuelle Inspektionseinrichtung bewegt auch den Ort der Kamera in folgenden Richtungen: in Richtung des Äquators des virtuellen kugeligen Objektes; in Richtung des polaren Umlaufs des virtuellen kugeligen Objektes; und in Richtung des Radius des Objektes, derart, dass kontinuierlich das Werkstück erfasst wird, welches an dem Prüfungsort in dem Blickfeld der Kamera gelegen ist.
  • Wenn die visuelle Inspektionseinrichtung die Simulationstechnik einsetzt, um das Werkstück, welches an dem Prüfort im Blickfeld der Kamera angeordnet ist, zu erfassen, kann es für den Benutzer notwendig sein, in die visuelle Inspektionseinrichtung von Hand eine Zentrumsposition des Werkstückes an einem entsprechenden Ort in dem Roboterkoordinatensystem des Roboterarms einzugeben.
  • Die Zentrumsposition des Werkstückes kann jedoch in die visuelle Inspektionseinrichtung an einem entsprechenden Ort in dem Roboterkoordinatensystem des Roboterarms nur eingegeben werden, wenn der Ort eines Ursprunges des Rotorkoordinatensystems und die Orientierung jeder seiner Achsen bekannt sind.
  • Es sei angenommen, dass der Ursprung des Roboterkoordinatensystems an den Boden der Basis gelegt wird, welche beispielsweise auf dem Boden einer Räumlichkeit installiert ist und dass eine Horizontalebene durch die Längsachse und Breitenachse (Richtung) des Roboterkoordinatensystems in den Boden der Basis gelegt wird.
  • In dieser Annahme misst ein Benutzer verhältnismäßig einfach die Höhe des Ursprunges des Koordinatensystems relativ zu der Höhe des Bodens der Basis und misst daher verhältnismäßig einfach einen Koordinatenort der Zentrumsposition des Werkstückes in der Höhenrichtung (Höhenachse) relativ zur Höhe des Ursprungspunktes.
  • Es kann jedoch für den Benutzer schwierig sein, Koordinatenpunkte des Ursprungs des Roboterkoordinatensystem in der Längenrichtung und der Breitenrichtung (Längenachse und Breitenachse) zu erfassen. Dies beruht darauf, dass der Ursprungspunkt durch die Basis verborgen bleibt, so dass der Benutzer nicht den tatsächlichen Ort des Ursprungspunktes des Roboterkoordinatensystems sehen kann.
  • Zusätzlich kann es für den Benutzer schwierig sein, die Orientierungen der Längenrichtung und der Höhenrichtung des Ursprungs des Roboterkoordinatensystems zu gewinnen. Dies beruht darauf, dass die Orientierungen der Längenrichtung und der Höhenrichtung des Ursprungs des Roboterkoordinatensystems sich von Roboterarm zu Roboterarm verändern.
  • Aus diesem Grunde kann es für den Benutzer schwierig sein, von Hand die Zentrumsposition des Werkstückes als den Koordinatenort im Roboterkoordinatensystem zu messen.
  • Angesichts der vorstehenden Betrachtungen ist es ein Ziel eines Aspektes der vorliegenden Erfindung, Einrichtungen zur Bestimmung einer Aufnahmeposition eines Roboters mit einer Kamera zu schaffen. Diese Einrichtungen sind so ausgebildet, dass ein Werkstück innerhalb eines Blickfeldes der Kamera leicht erfasst werden kann.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird eine Einrichtung zur Bestimmung einer Aufnahmeposition eines mit einer Kamera versehenen Roboterarmes in einem dreidimensionalen Koordinatensystem geschaffen, wenn ein Bild eines Werkstückes von der Kamera aufgenommen werden soll. Das Werkstück ist auf eine Bezugsebene gesetzt. Die Einrichtung enthält eine Eingabeeinheit, welche so ausgebildet ist, dass eine erste Koordinate des Werkstückes auf einer ersten Achse des dreidimensiona len Koordinatensystems eingegeben wird. Die erste Achse ist so definiert, dass sie orthogonal zu der Bezugsebene orientiert ist. Die Einrichtung enthält eine Koordinatengewinnungseinheit, welche so ausgebildet ist, dass sie folgende Funktionen erfüllt:
    Antreiben des Roboters der Kamera gegenüber dem Werkstück in der ersten Richtung derart, dass mindestens ein Teil des Werkstücks in dem Blickfeld (FOV) der Kamera erfasst wird und
    Gewinnen zweiter und dritter Koordinaten an einem vorbestimmten Punkt des Roboterarmes auf jeweiligen zweiten und dritten Achsen des dreidimensionalen Koordinatensystems, wobei mindestens der Teil des Werkstücks in dem Blickfeld der Kamera erfasst ist.
  • Die zweiten und dritten Achsen sind orthogonal zu der ersten Achse orientiert. Die ersten, zweiten und dritten Koordinaten sind als die Koordinaten eines zeitweise definierten Bezugspunktes des Werkstückes in dem dreidimensionalen Koordinatensystem festgelegt. Die Einrichtung enthält eine Positionsbestimmungseinheit, welche so ausgebildet ist, dass sie mit einer bestimmten Zeitvorgabe den Roboterarm bewegt, um eine Position des vorbestimmten Punktes des Roboterarmes basierend auf einer Lagebeziehung zwischen den ersten, zweiten und dritten Koordinaten des zeitweise bestimmten Referenzpunktes des Werkstückes und den tatsächlichen Koordinaten des vorbestimmten Punktes des Roboterarmes festlegt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Andere Ziele und Aspekte der Erfindung werden aus der folgenden Beschreibung von Ausführungsbeispielen unter Bezugnahme auf die begleitenden Zeichnungen deutlich. In den Zeichnungen stellen dar:
  • 1 eine perspektivische Ansicht, welche schematisch ein Beispiel der Hardwarekonfiguration eines Robotersystems gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ein Blockschaltbild, welches schematisch ein Beispiel der Systemkonfiguration des Robotersystems nach 1 darstellt;
  • 3 eine perspektivische Ansicht, welche schematisch einen Flansch wiedergibt, welcher an einem Ende eines Roboterkörpers gemäß 1 befestigt ist, an welchen eine Kamera angeschlossen werden soll;
  • 4A eine Ansicht, welche schematisch ein ebenes Bild eines geprüften Werkstüekes wiedergibt, welches auf dem Bildschirm einer Wiedergabeeinrichtung dargestellt wird, gemäß der vorliegenden Ausführungsform;
  • 4B eine Abbildung, welche schematisch ein Fenster auf dem Bildschirm der Wiedergabeeinrichtung zeigt, in welchem dreidimensionale graphische Modelle des Robotersystems und graphische Benutzer-Schnittstellenabschnitte dargestellt werden;
  • 5 ein Flussdiagramm, welches schematisch eine Vorbereitungsroutine zeigt, welche von einer Steuerung gemäß der vorliegenden Ausführungsform ausgeführt wird;
  • 6 eine Abbildung, welche schematisch einen ausgewählten Punkt in dem ebenen Bild des geprüften Werkstückes, welches auf dem Bildschirm der Wiedergabeeinrichtung gemäß der vorliegenden Ausführungsform gezeigt wird, darstellt;
  • 7 ein Flussdiagramm, welches schematisch eine temporäre Zentrumsaufnahmeroutine darstellt, welche von der Steuerung gemäß der vorliegenden Ausführungsform durchzuführen ist;
  • 8 ein Flussdiagramm, welches schematisch eine zweite Vorbereitungsroutine zeigt, welche von der Steuerung gemäß einer ersten Abwandlung der vorliegenden Ausführungsform auszuführen ist;
  • 9A eine Abbildung, welche schematisch ein Beispiel einer Mehrzahl von spezifischen Punkten nahe am Umriss des ebenen Bildes zeigt, welches auf dem Bildschirm der Wiedergabeeinrichtung gemäß der ersten Abwandlung dargestellt wird;
  • 9B eine Abbildung, welche schematisch ein anderes Beispiel einer Anzahl von spezifischen Punkten nahe an dem Umriss des ebenen Bildes zeigt, welches auf dem Schirm der Wiedergabeeinrichtung gemäß der ersten Abwandlung dargestellt wird;
  • 9C eine Abbildung, welche schematisch ein weiteres Beispiel einer Mehrzahl von spezifischen Punkten nahe an dem Umriss des ebenen Bildes zeigt, welches auf dem Bildschirm der Wiedergabeeinrichtung der ersten Abwandlung dargestellt wird;
  • 10 eine Abbildung, welche schematisch ein ebenes Bild eines geprüften Werkstücks mit einer Form zeigt, auf welcher zwei ausgewählte Punkte gemäß einer zweiten Modifikation der vorliegenden Ausführungsform wiedergegeben sind;
  • 11 eine Abbildung, welche schematisch ein ebenes Bild eines geprüften Werkstückes in einer anderen Gestalt zeigt, auf welcher zwei ausgewählte Punkte gemäß der zweiten Modifikation der vorliegenden Ausführungsform dargestellt sind;
  • 12 ein Flussdiagramm, welches schematisch eine dritte Vorbereitungsroutine verdeutlicht, welche durch die Steuerung gemäß der zweiten Modifikation der vorliegenden Ausführungsform ausgeführt werden soll;
  • 13 ein Flussdiagramm, welches schematisch eine Bezugspunkt-Aufnahmeroutine verdeutlicht, welche danach durch die Steuerung gemäß der zweiten Modifikation der vorliegenden Ausführungsform auszuführen ist;
  • 14 ein Flussdiagramm, welches schematisch eine vierte Vorbereitungsroutine verdeutlicht, welche durch die Steuerung gemäß einer dritten Modifikation der vorliegenden Ausführungsform ausgeführt werden soll; und
  • 15 eine Abbildung, welche schematisch ein ebenes Bild eines geprüften Werkstückes darstellt, auf welchem eine Mehrzahl ausgewählter Punkte gemäß der dritten Modifikation der vorliegenden Ausführungsform wiedergegeben ist.
  • DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN DER ERFINDUNG
  • Eine Ausführungsform der vorliegenden Erfindung wird nachfolgend unter Bezugnahme auf die 1 bis 15 beschrieben. In der Ausführungsform wird die vorliegende Erfindung auf ein Robotersystem RS angewendet. Beispielsweise dient das Robotersystem RS einer visuellen Inspektionseinrichtung zum visuellen Prüfen, ob Teile ordnungsgemäß in ihren richtigen Positionen der zusammengebauten Werkstücke 19 während des Endprozesses einer Montagelinie der Werkstücke 19 zusammengebaut worden sind.
  • Es sei auf 1 Bezug genommen. Das Robotersystem RS ist vorzugsweise mit einem Roboterkörper 1, einer Steuerung 2, welche elektrisch über ein Kabel damit verbunden ist und zur Steuerung des Roboterkörpers 1 ausgebildet ist, einem Unterrichtungsanhang 3, der elektrisch über ein Kabel mit der Steuerung 2 verbunden ist und einer Wiedergabeeinrichtung 4 ausgerüstet, die über ein Kabel elektrisch mit der Steuerung 2 verbunden ist.
  • Der Unterrichtungsanhang 3 ist mit einem handbetätigbaren Teil, beispielsweise einer Tastatur 3a und einer Wiedergabeeinrichtung, beispielsweise einem LCD-Display 3b, ausgerüstet. Manuelle Operationen des Benutzers an dem handbetätigbaren Teil 3a gestatten es, vielerlei Instruktionen für die Steuerung 2 an dem Unterrichtungsanhang 3 einzugeben. Die Wiedergabeeinrichtung 3b dient zur Darstellung verschiedener Informationsgegenstände.
  • Der Roboterkörper 1 ist beispielsweise als gegliederter Roboterkörper ausgebildet.
  • Der Roboterkörper 1 besteht aus einer im wesentlichen zylindrischen Basis 5, welche auf einer horizontalen Installationsfläche, beispielsweise der flachen Oberfläche eines im Wesentlichen rechteckigen Fundamentes D befestigt ist, das mit seiner flachen Unterseite gegenüberliegend der flachen Oberseite auf dem Boden F einer Räumlichkeit installiert ist, in welcher das Robotersystem RS aufgebaut ist (siehe 4B).
  • Der Roboterkörper 1 besteht aus einer im Wesentlichen zylindrischen Schulterverbindung 6, welche an der Basis 5 so befestigt ist, dass die Mittelachse der Schulterverbindung 6 senkrecht zur Mittelachse der Basis 5 verläuft.
  • Die Schulterverbindung 6 ist so ausgebildet, dass sie auf der Basis 5 horizontal um die Mittenachse (Bewegungsachse) der Basis 5 verdrehbar ist. Im Einzelnen dient die Basis 5 als eine Drehverbindung zur Abstützung der Schulterverbindung 6 und verdreht diese um die Mittenachse der Basis. Die Basis 5 wird nachfolgend auch als ”Basisverwendung” bezeichnet.
  • Der Roboterkörper 1 hat ein Paar von Oberarmen (Oberarmverbindungen) 7. Ein Ende des Paares der Oberarme 7 ist jeweils schwenkbar durch die beiden Enden der Schulterverbindung 6 um die Mittenachse (Bewegungsachse) der Schulterverbindung in senkrechter Richtung parallel zur Mittenachse der Basis 5 abgestützt. Im Einzelnen ist die Schulterverbindung 6 so ausgebildet, dass sie die Oberarme 7 abstützt und sie um die Mittelachse der Schulterverbindung verdrehen kann.
  • Der Roboterkörper 1 weist eine im Wesentlichen zylindrische Armverbindung 7a auf, die an die jeweils anderen Enden des Paares von Oberarmen 7 angeschlossen ist, um vertikal um die Mittenachse (Bewegungsachse) der Armverbindung in vertikaler Richtung verschwenkt zu werden.
  • Der Roboterkörper 1 weist ferner einen im Wesentlichen quaderförmigen ersten Unterarm 8a auf, der an seiner einen Hauptseite an einer äußeren Umfangsfläche der Armverbindung 7a befestigt ist, um zusammen mit der Armverbindung 7a um deren Mittenachse in Vertikalrichtung verschwenkbar zu sein. Im Einzelnen ist die Armverbindung 7a so ausgebildet, dass sie den ersten Unterarm 8a abstützt und ihn um ihre Mittenachse verschwenkt.
  • Des Weiteren weist der Roboterkörper 1 einen zweiten Unterarm 8b auf, der von dem ersten Unterarm 8a wegragt und von ihm um eine Mittenachse des ersten Unterarmes 8a entsprechend einer Bewegungsachse drehbar abgestützt ist. Im Einzelnen dient der erste Unterarm 8a als eine Verbindung zur Abstützung des zweiten Unterarmes 8b und zu dessen Verdrehung um die Mittenachse des ersten Unterarmes.
  • Das äußere Ende des zweiten Unterarmes 8b ist gegabelt. Der erste Unterarm 8a und der zweite Unterarm 8b bilden eine Unterarmverbindung 8.
  • Außerdem enthält der Roboterkörper 1 eine im Wesentlichen zylindrische Handgelenkverbindung 9, die zwischen die gegabelten Enden des zweiten Unterarmes 8b eingesetzt und von innen um die Mittenachse der Handgelenkverbindung (Bewegungsachse) in Vertikalrichtung entsprechend der Richtung der Mittenachse der Basis 5 verschwenkbar abgestützt ist.
  • Die Handgelenkverbindung 9 ist mit einem im Wesentlichen ringförmigen Flansch 10 versehen, welcher von ihr wegsteht. Die Handgelenkverbindung 9 ist so ausgebildet, dass sie den Flansch 10 abstützt und ihn um ihre Mittenachse verschwenken kann.
  • Der Flansch 10 ist so ausgebildet, dass er um seine Mittenachse (Bewegungsachse) in der Richtung, in welcher er vorsteht, verdrehbar ist.
  • Der Roboterkörper 1 enthält eine Kamera 11, welche an einer vorderen Endfläche des Flansches 10 befestigt ist. Die Kamera 11 hat beispielsweise eine einzige Linse mit fester Brennweite und einen Fotodetektor mit einer Pixelfäche (einer Abbildungsfläche), und ist so angeordnet, dass eine optische Achse L der Linse der Kamera 11 auf die Mittenachse des Flansches 10 ausgerichtet ist (siehe 1). Ein Blickfeld (FOV) der Kamera 11 ist beispielsweise auf der Basis der Größe und einer Brennweite der Linse und der Größe der Pixelfläche des Fotodetektors der Kamera 11 festgelegt.
  • Der Roboterkörper 1 enthält eine Anzahl von Servomotoren (M) 17 als Betätigungsantriebe (siehe 2). Auch enthält der Roboterkörper 1 eine Anzahl von Drehmeldern (E) 18, welche beispielsweise an der Welle eines entsprechenden Servomotoren 17 (siehe 2) jeweils befestigt sind.
  • Im Einzelnen ist die Basis (Basisverbindung) 5 mit einem Servomotor 17 und einem Rotationsübertragungssystem (nicht gezeigt) zusammengebaut, welches die Drehbewegung des Servomotors 17 auf die Schulterverbindung 6 überträgt, um diese zu verdrehen.
  • Die Schulterverbindung 6 ist mit einem Servomotor 17 und einem Rotationsübertragungssystem (nicht dargestellt) zusammengebaut, welches die Drehung des Servomotors 17 auf die Oberarme 7 überträgt, um diese zusammen vertikal zu verschwenken.
  • Die Armverbindung 7a ist mit einem Servomotor 17 und einem Drehübertragungssystem (nicht dargestellt) zusammengebaut, welches die Drehung des Servomotors 17 auf den ersten Unterarm 8a überträgt, um ihm vertikal zu verschwenken.
  • Der erste Unterarm (Armverbindung) 8a ist mit einem Servomotor 17 und einem Drehübertragungssystem (nicht dargestellt) zusammengebaut, welches die Drehung des Servomotors 17 auf den zweiten Unterarm 8b überträgt, um diesen um seine Mittenachse zu verdrehen.
  • Die Handgelenkverbindung 9 ist mit einem Servomotor 17 und einem Drehübertragungssystem (nicht dargestellt) zusammengebaut, welches die Drehung des Servomotors 17 auf die Handgelenkverbindung überträgt, um diese zusammen mit dem Flansch 10 in Vertikalrichtung zu verschwenken.
  • Der Flansch 10 ist mit einem Servomotor 17 und einem Drehübertragungssystem (nicht gezeigt) zusammengebaut, welches die Drehung des Servomotors 17 auf den Flansch überträgt, so dass dieser sich zusammen mit der Kamera 11 um seine Mittenachse verdreht.
  • Im einzelnen dienen die Basisverbindung 5, die Schulterverbindung 6, die Oberarmverbindung 7a, die Unterarmverbindung 8a, die Handgelenkverbindung 9 und der Flansch 10 des Roboterkörpers 1 als Verbindungen (verbundene Mechanismen) der Teile, die so mit entsprechenden Verbindungsorganen des Roboterkörpers 1 gekoppelt und ausgebildet sind, dass ihnen eine Beweglichkeit verliehen wird.
  • Wie in 2 dargestellt, enthält die Steuerung 2 eine CPU 12, Treiberschaltungen 13 zum Betrieb der Servomotoren 17, eine Detektierungsschaltung 14, einen ROM-Speicher (Lesespeicher), beispielsweise einen wiederbeschreibbaren, nicht flüchtigen Speicher 15 und einen RAM-Speicher (Speicher wahlfreien Zugriffs) 16. Die Elemente 13 bis 16 sind elektrisch mit der CPU 12 verbunden.
  • In dem ROM-Speicher 15 sind beispielsweise Systemprogramme gespeichert, welche die CPU 12 dazu veranlassen, die Systemeinrichtungen des Robotersystems RS zu steuern. Der RAM-Speicher 16 enthält beispielsweise Bewegungsprogramme des Roboterkörpers 1 gespeichert. Mit der CPU 12 sind der Unterrichtungsansatz 3, die Wiedergabeeinrichtung 4 und die Kamera 11 elektrisch verbunden. Man beachte, dass wie in 2 gezeigt, die Basisverbindung 5, die Schulterverbindung 6, die Oberarmverbindung 7a, die Unterarmverbindung 8a, die Handgelenkverbindung 9 und der Flansch 10 des Roboterkörpers 1 kollektiv als „Verbindung” in einem Blocksymbol bezeichnet sind.
  • Die Servomotoren 17 zum Antrieb der Verbindungen 5, 6, 7a, 8a, 9 und 10 sind kollektiv als ein Blocksymbol mit der Bezugszahl 17 bezeichnet, wie in 2 gezeigt ist. In entsprechender Weise sind die Drehmelder 18 kollektiv als ein Blocksymbol mit der Bezugszahl 18 in 2 dargestellt.
  • Die Detektierungsschaltung 14 ist in der Weise wirksam, dass sie eine tatsächliche Position und eine tatsächliche Winkelgeschwindigkeit jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 feststellt.
  • Jeder der Drehmelder 18 dient beispielsweise als Positionssensor. Im einzelnen ist jeder der Drehmelder 18 so ausgebildet, dass er Digitalimpulse ausgibt, welche der Winkelbewegung (Drehung) der Welle eines entsprechenden der Servomotoren 17 abgibt. Das Impulssignal, welches aus einer Folge von digitalen Impulsen besteht, wird an die Detektierungsschaltung 14 geliefert.
  • Basierend auf den Impulssignalen, welche von den Drehmeldern 18 ausgehen, kann die Detektierungsschaltung 14 folgendes feststellen:
    Einen tatsächlichen Drehwinkel (Winkelstellung) der Schulterverbindung 6 relativ zu der Basisverbindung 5;
    einen tatsächlichen Drehwinkel (Winkelstellung) des Oberarmes 7 relativ zu der Schulterverbindung 6;
    einen tatsächlichen Drehwinkel (Winkelstellung) der Unterarmverbindung 8 relativ zu dem Oberarm 7;
    einen tatsächlichen Drehwinkel (Winkelstellung) der Handgelenkverbindung 9 relativ zu dem zweiten Unterarm 8b; und
    einen tatsächlichen Drehwinkel (Winkelstellung) des Flansches 10 relativ zu der Handgelenkverbindung 9.
  • Zusätzlich ist die Detektierungsschaltung 14 in der Weise wirksam, dass sie:
    die Anzahl von Impulsen in dem Impulssignal zählt, welches von jedem der Drehmelder 18 je Zeiteinheit eingegeben wird; und
    auf der Basis des gezählten Ergebnisses die tatsächliche Winkelgeschwindigkeit jedes der Servomotoren 17 bestimmt, mit anderen Worten, die tatsächliche Winkelgeschwindigkeit jeder der Verbindungen 5, 6 7a, 8a, 9 und 10.
  • Die Detektierungsschaltung 14 ist auch in der Weise wirksam, dass sie der CPU 12 Informationen liefert, welche den tatsächlichen Drehwinkel und die tatsächliche Drehgeschwindigkeit jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 angeben.
  • Man beachte, dass in jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 ein dreidimensionales Koordinatensystem definiert ist. Das dreidimensionale Koordinatensystem, das in der Basisverbindung 5 definiert ist, ist ein stillstehendes dreidimensionales Koordinatensystem, welches durch das Bezugszeichen ”S” in 1 bezeichnet ist. Das stillstehende dreidimensionale Koordinatensystem sei nachfolgend als ”Roboterkoordinatensystem” bezeichnet.
  • Das dreidimensionale Koordinatensystem, welches jeweils in jeder der verbleibenden Verbindungen 6, 7a, 8a, 9 und 10 definiert ist, verändert sich abhängig von der Drehung jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10.
  • Das Roboterkoordinatensystem S hat einen Ursprungspunkt P, welcher an einem Punkt am Boden der Basisverbindung 5 gelegen ist, durch welchen die Mittenachse der Basisverbindung 5 hindurchgeht. Eine Z-Achse ”Z” wird als körperliche Abmessung der Höhe des Roboterkoordinatensystems S auf der Mittenachse der Basis 5 durch den Ursprungspunkt P definiert. Diese Z-Achse ist orthogonal zu dem Boden der Basisverbindung 5 orientiert und verläuft koaxial zur Mittenachse der Basisverbindung 5.
  • Eine X-Y-Ebene, welche durch eine X-Achse und eine Y-Achse aufgespannt wird, wird in einer Horizontalebene definiert, welche den Boden der Basisverbindung 5 enthält und orthogonal zu der Z-Achse ist. Sowohl die X-Achse als auch die Y-Achse geht durch den Ursprungspunkt P und die Richtung der X-Achse und der Y-Achse, welche senkrecht zur X-Achse ist, werden frei in der Horizontalebene, beispielsweise im Planungszustand des Roboterkörpers 1 bei einem Hersteller desselben festgelegt.
  • Es ist zu beachten, dass die Information, welche die Dimensionen jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10, beispielsweise deren Länge in der entsprechenden Längsrichtung oder entsprechend der Axialrichtung, zuvor beispielsweise in dem ROM-Speicher 15 der Steuerung 2 gespeichert werden.
  • Die CPU 12 der Steuerung 2 ist in der Weise wirksam, dass sie eine Rückkopplungssteuerung der Bewegung jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 in Entsprechung mit den Roboterbewegungsprogrammen durchführt, welche in dem RAM-Speicher 16 basierend auf den Informationen des Speichers gespeichert sind, welche von der Detektierungsschaltung 14 gegeben werden und welche in dem ROM-Speicher 15 gespeichert sind. Diese Rückkopplungssteuerung ermöglicht eine Aufnahmeposition der Kamera 11 derart, dass sie in Übereinstimmung mit einer gewünschten Objektaufnahmeposition ist.
  • Im Einzelnen ist die CPU 12 in der Weise wirksam, dass sie folgendes durchführt:
    Empfangen des tatsächlichen Drehwinkels jeder der Verbindungen 6, 7a, 8a, 9 und 10 und der Information, welche die Länge jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 in Entsprechung mit der Längsrichtung oder in Entsprechung mit der Axialrichtung anzeigt; und Umwandeln einer Position jeder der Verbindungen 6, 7a, 8a, 9 und 10 in einem entsprechenden der dreidimensionalen Koordinatensysteme in eine Position jeder der Verbindungen 6, 7a, 8a, 9 und 10 in dem Roboterkoordinatensystem S.
  • Es ist zu beachten, dass eine Position einer Verbindung in einem entsprechenden dreidimensionalen Koordinatensystem eine Position der Verbindung in dem entsprechenden dreidimensionalen Koordinatensystem und eine Orientierung der Mittenachse der Verbindung darin umfasst.
  • Bezug nehmend auf 3 ist anzumerken, dass das dreidimensionale Koordinatensystem, welches in dem Flansch 10 definiert ist, einen Ursprungspunkt PO besitzt, der in dem Zentrum der vordersten Endfläche des Flansches 10 gelegen ist. Die X-Achse Xf, die Y-Achse Yf und die Z-Achse Zf des dreidimensionalen Koordinatensystems, welches in dem Flansch 10 definiert ist, werden frei bestimmt, so lange die folgenden Bedingungen erfüllt sind:
    Irgendwelche zwei Achsen der X-, Y- und Z-Achsen Xf, Yf und Zf des in dem Flansch 10 definierten dreidimensionalen Koordinatensystems werden in der vordersten Endfläche des Flansches 10 festgelegt; und
    die verbleibende eine Achse der X-, Y- und Z-Achsen Xf, Yf und Zf des in dem Flansch 10 definierten dreidimensionalen Koordinatensystems wird so festgelegt, dass sie koaxial mit der Mittenachse des Flansches 10 ist. Diese Mittenachse steht senkrecht zu der vordersten Endfläche des Flansches 10.
  • Im Einzelnen werden in der vorliegenden Ausführungsform die X- und Y-Achsen Xf und Yf in der vordersten Endfläche des Flansches 10 so festgelegt, dass ihre positiven Richtungen so, wie in 3 gezeigt, orientiert sind. Die verbleibende Z-Achse Zf wird so festgelegt, dass sie koaxial zu der Mittenachse des Flansches 10 ist, so dass die positive Richtung so, wie in 3 gezeigt, orientiert ist.
  • Eine Stellung (Position und Orientierung) des Roboterkörper 1, bedeutend eine Stellung (Position und Orientierung) des Flansches 10, wird folgendermaßen dargestellt.
  • Im Einzelnen wird eine Position des Flansches 10 als eine Position in dem Roboterkoordinatensystem S repräsentiert, welchen der Ursprungspunkt PO des von dem Flansch 10 definierten dreidimensionalen Koordinatensystems einnimmt.
  • Eine Orientierung des Flansches 10 wird durch einen Annäherungsvektor A und einen Orientierungsvektor O repräsentiert.
  • Der Annäherungsvektor A hat eine Einheitslänge von ”1” und weist von dem Ursprungspunkt PO in der negativen Richtung der Z-Achse Zf weg.
  • Der Orientierungsvektor hat eine Länge von ”1” und ragt von dem Ursprungspunkt PO in der positiven Richtung der Y-Achse Yf weg.
  • Im Einzelnen wird eine Orientierung des Flansches 10 durch einen Annäherungsvektor A und einen Orientierungsvektor O in dem Roboterkoordinatensystem S repräsentiert, wenn das in dem Flansch 10 definierte dreidimensionale Koordinatensystem derart übersetzt wird, dass der Ursprungspunkt PO in Übereinstimmung mit dem Ursprungspunkt P des Roboterkoordinatensystems S ist.
  • In der vorliegenden Ausführungsform enthält die ”Aufnahmeposition” eine Position des Ursprungspunktes PO des Flansches 10, an welcher ein Bild von der Kamera 11 aufgenommen werden soll, sowie eine Orientierung eines Bezugsvektors, der durch den Annäherungsvektor A und den Orientierungsvektor O definiert ist, an welchen ein Bild durch die Kamera 11 aufgenommen werden soll.
  • Wie oben beschrieben ist das Robotersystem RS beispielsweise für eine visuelle Inspektionseinrichtung eingesetzt.
  • Die visuelle Inspektionseinrichtung mit dem Robotersystem RS arbeitet in der Weise, dass sie der Reihe nach die Kamera 11 in Objektaufnahmeposition bringt, in denen jeweils ein Bild eines zusammengebauten Werkstückes während des endgültigen Prozesses der Montagelinie des zusammengebauten Werkstücks 19 (siehe 4A) aufgenommen werden soll.
  • Während des Endprozesses der Montagelinie werden die zusammengebauten Werkstücke 19 der Reihe nach zu dem voreingestellten Prüfort auf einer flachen Montagefläche auf einem Montagetisch T angeordnet, der auf dem Boden F installiert ist, so dass jedwedes der zusammengebauten Werkstücke 19 auf den voreingestellten Prüfort gesetzt wird (siehe 4B). Ein zusammengebautes Werkstück 19, das auf den voreingestellten Prüfort gesetzt ist, wird nachfolgend als ”geprüftes Werkstück 19” bezeichnet.
  • Die visuelle Inspektionseinrichtung arbeitet auch in der Weise, dass sie der Reihe nach ein Bild des geprüften Werkstücks 19 in der jeweiligen Objektaufnahmeposition aufnimmt und visuell überprüft, basierend auf den aufgenommenen Bildern, um festzustellen, ob Teile ordnungsgemäß in ihren richtigen Positionen an dem geprüften Werkstück 19 befestigt sind.
  • Die Kamera 11 ist an der vordersten Endfläche des Flansches 10 des Roboterkörpers 1 montiert, so dass die optische Achse L der Kamera 11 koaxial zu der Z-Achse Zf des dreidimensionalen Koordinatensystems ist, welches in dem Flansch 10 definiert ist; der Annäherungsvektor A ist in der Z-Achse Zf definiert.
  • In der vorliegenden Ausführungsform gestattet die Manipulation des Roboterkörpers 1 entsprechend den manuellen Operationen, welche durch den Unterrichtungszusatz 3 vorgegeben werden, die Bestimmung der Objektaufnahmepositionen und ihrer Speicherung in der Steuerung 2.
  • Im Einzelnen betätigt bei der vorliegenden Ausführungsform ein Benutzer von Hand den Unterrichtungszusatz 3, um dadurch erste Instruktionen an die Steuerung 2 zu liefern.
  • Die ersten Instruktionen veranlassen die Steuerung 2 zu Folgendem:
    Bewegen des Roboterkörpers 1 um das geprüfte Werkstück 19 herum während einer Änderung der Stellung des Roboterkörpers 1;
    Aufnahme eines Bildes durch die Kamera 11; und
    Darstellen des Bildes auf der Wiedergabeeinrichtung 4.
  • Wenn ein gewünschter Prüfpunkt des geprüften Werkstückes 19 in dem Blickfeld FOV der Kamera 11 in einer Position des Flansches 10 enthalten ist, so dass der Punkt auf der Wiedergabeeinrichtung 4 dargestellt werden kann, bestimmt der Benutzer, dass die Stellung des Flansches 10 eine Objektaufnahmeposition ist. Der Benutzer betätigt also den Unterrichtungszusatz 3, um hierdurch zweite Instruktionen an die Steuerung 2 zu senden.
  • Die zweiten Instruktionen veranlassen die Steuerung 2 zur Speicherung der Stellung des Flansches 10 als eine Objektaufnahmestellung, beispielsweise in dem RAM-Speicher 16.
  • Diese Operationen werden wiederholt durchgeführt. Wenn sämtliche Objektaufnahmestellungen entsprechend sämtlichen gewünschten Prüfungspunkten des geprüften Werkstückes 19 in dem RAM-Speicher gespeichert sind, dann ist die Festlegung der Objektaufnahmestellungen der Kamera 11 beendet.
  • Danach ist bei der tatsächlichen Prüfung des geprüften Werkstückes 19 die Steuerung 2 in folgender Weise wirksam:
    Antreiben des Roboterkörpers 1 zur Positionierung desselben in jeder der Objektaufnahmestellungen;
    Aufnehmen eines Bildes des geprüften Werkstückes 19 durch die Kamera 11 in jeder der Objektaufnahmepositionen; und
    Verarbeiten der aufgenommenen Bilder, um hierdurch festzustellen, ob Teile ordnungsgemäß an ihren geplanten Positionen des geprüften Werkstückes 19 angeordnet sind, basierend auf dem Ergebnis der Verarbeitung.
  • Während der Festlegungsroutine der Objektaufnahmestellungen ist es, wenn das geprüfte Werkstück 19 sich außerhalb des Blickfeldes FOV der Kamera 11 befindet, schwierig, die Festlegungsroutine der verbleibenden Objektaufnahmestellungen fortzusetzen. Es ist daher notwendig, das geprüfte Werkstück 19 wieder in dem Blickfeld FOV der Kamera 11 zu erfassen.
  • Das Robotersystem RS gemäß der vorliegenden Ausführungsform ist derart ausgebildet, dass einfache Manipulationen des Roboterkörpers 1 es ermöglichen, das geprüfte Werkstück 19 im Blickfeld FOV der Kamera 11 wieder zu erfassen, selbst wenn sich das geprüfte Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 befindet.
  • Im Einzelnen arbeitet bei der vorliegenden Ausführungsform die Steuerung 2 in Zusammenwirkung mit dem Unterrichtungszusatz 3 und der Wiedergabeeinrichtung 4 zusammen, um hierdurch eine Vorbereitungsroutine vor der Festlegungsroutine durchzuführen.
  • Die Vorbereitungsroutine ist so ausgebildet, dass sie zeitweilig einen Bezugspunkt definiert, beispielsweise ein Zentrum (Schwerpunkt) des geprüften Werkstückes 19, und Koordinaten des zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S bestimmt.
  • Die in dem ROM-Speicher 15 gespeicherten Systemprogramme enthalten ein GUI-Programm (Graphical User Interface Software Module), welches dem Benutzer gestattet, den Roboterkörper 1 über graphische Elemente zu manipulieren, die auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt sind.
  • Im Einzelnen veranlasst, wenn die Vorbereitungsroutine beispielsweise in Abhängigkeit von Instruktionen durchgeführt wird, welche von dem Unterrichtungszusatz 3 gesendet werden, das GUI-Programm die Steuerung 2, dazu Folgendes darzustellen:
    Jeweilige dreidimensionale graphische Modelle 1M, DM, 19M, TM und FM des Roboterkörpers 1, des Fundamentes D, des Werkstückes 19, des Befestigungstisches T und des Bodens F, beispielsweise im unteren rechten Eck des Bildschirms der Wiedergabeeinrichtung 4 in Form eines Fensters W;
    Dialogfenster DL1, DL2 und DL3, in welchen numerische Information eintragbar ist; und
    ein anklickbares Blickfeld IC zur Eingabe einer Instruktion entsprechend dem Bildfeld IC in die Steuerung 2 beim Anklicken (siehe 4A und 4B).
  • Wenn ein Benutzer den Unterrichtungszusatz 3 betätigt, um in die Steuerung 2 eine Instruktion zur Darstellung eines Cursors (Zeigers) als Hinweis einzugeben, dann stellt die Steuerung 2 einen Cursor auf dem Bildschirm der Wiedergabeeinrichtung dar. Die manuelle Betätigung des Unterrichtungszusatzes 3 durch den Benutzer ermöglicht es der Steuerung 2, eine neue Position auf dem Bildschirm zu wählen und diese anzuklicken um hierdurch einen Befehl entsprechend der angeklickten Position auszuwählen.
  • Die Steuerung 2 arbeitet in der Weise, dass sie den Roboterkörper 1 in Entsprechung mit der manuellen Betätigung des Unterrichtungszusatzes 3 durch den Benutzer bewegt, während das dreidimensionale graphische Modell 1M entsprechend dem Roboterkörper 1 zusammen hiermit bewegt wird.
  • Es sein nun auf 4B Bezug genommen. Das Dialogfeld DL1 repräsentiert ein Dialogfeld, in welchem eine X-Koordinate des zeitweilig definierten Referenzpunktes des geprüften Werkstückes 19 dargestellt werden kann, und das Dialogfeld DL2 reprä sentiert ein Dialogfeld, in welchem eine Y-Koordinate des zeitweilig definierten Referenzpunktes des geprüften Werkstückes 19 dargestellt werden kann.
  • Das Dialogfeld DL3 repräsentiert ein anklickbares Dialogfeld, in welchem die Differenz zwischen der Höhe des zeitweilig definierten Referenzpunktes des geprüften Werkstückes 19 und der Höhe des Fundamentes D in der Z-Achsenrichtung des Roboterkoordinatensystems S eingegeben werden kann.
  • Das anklickbare Bildfeld IC ist mit „zum Werkstück” beschriftet. Das anklickbare Bildfeld IC dient zur Instruktion der Steuerung 2, eine Bezugspunkt-Aufnahmeroutine durchzuführen, welche in 7 angegeben und nachfolgend beschrieben ist, wenn das Bildfeld angeklickt wird.
  • Nunmehr seien die Vorbereitungsroutine und die manuellen Operationen in Zusammenhang damit entsprechend der vorliegenden Ausführungsform beschrieben.
  • Wenn ein Benutzer die Vorbereitungsroutine auszuführen wünscht, dann setzt der Benutzer ein zusammengebautes Werkstück 19, welches geprüft werden soll, auf die flache Befestigungsoberfläche des Befestigungstisches T, um es an den vorbestimmten Prüfort als geprüftes Werkstück 19 (siehe 4B) zu bringen, was in dem Schritt S1 von 5 geschieht.
  • Darauf misst der Benutzer die Höhe H eines bestimmten Punktes G des geprüften Werkstücks 19 von dem Boden F aus, sowie die Höhe h des Ursprungs des Roboterkoordinatensystems S von dem Boden F aus, was in dem Schritt S2 geschieht.
  • Der gegebene Punkt G des geprüften Werkstückes 19 kann an die Oberseite des geprüften Werkstückes 19, an den Boden des geprüften Werkstückes 19 oder in der Mitte des geprüften Werkstückes 19 zwischen der Oberseite und der Unterseite des Werkstückes gewählt werden. Nimmt man an, dass die Kamera 11 so angeordnet ist, dass sie auf den gegebenen Punkt G des geprüften Werkstückes 19 von der Oberseite des geprüften Werkstückes 19, wie nachfolgend beschrieben, gerichtet ist, dann ist der gegebene Punkt G vorzugsweise an einer tieferen Seite des geprüften Werkstückes 19 und besonders vorzugsweise am Boden des geprüften Werkstückes 19 gewählt. Dies beruht darauf, dass ein größerer Abstand zwischen der Kamera 11 und dem gegebenen Punkt G es ermöglicht, dass das geprüfte Werkstück 19 leichter in dem Blickfeld FOV der Kamera 11 erfasst werden kann.
  • Nach dem Einsetzen des geprüften Werkstückes 19 betätigt der Benutzer den Unterrichtungszusatz 3, um eine Moduseinstellinstruktion an die CPU 12 zu senden. Basierend auf der Moduseinstellinstruktion, welche an die CPU 12 gesendet wird, stellt diese ihren Arbeitsmodus in dem Schritt S3 in einen Vorbereitungsmodus.
  • In dem Vorbereitungsmodus stellt die CPU 12 ein von der Kamera 11 aufgenommenes Bild auf dem Bildschirm der Wiedergabeeinrichtung 4 dar. Darauf stellt die CPU 12 in der rechten unteren Ecke des Bildschirms der Wiedergabeeinrichtung 4 das Fenster W dar, in welchem die jeweiligen dreidimensionalen grafischen Modelle 1M, DM, 19M, TM und FM des Roboterkörpers 1, des Fundamentes D, des Werkstückes 19, des Befestigungstisches T und des Bodens F dargestellt sind.
  • In dem Vorbereitungsmodus stellt die CPU 12 den Roboterkörper 1 so ein, dass er für die Bewegung entsprechend der Handbetätigung des Unterrichtungszusatzes 3 bereit ist, und stellt das dreidimensionale grafische Modell 1M des Roboterkörpers 1 so ein, dass es für die Bewegung bereit ist, welche der Bewegung des Roboterkörpers 1 folgt.
  • In dem Bereitschaftszustand bewegt die CPU 12 entsprechend den Befehlen, welche durch die Betätigung des Unterrichtungszusatzes 3 von diesem übertragen werden, den Roboterkörper 1, während eine Stellung des Roboterkörpers 1 geändert wird, nimmt der Reihe nach ein Bild durch die Kamera 11 auf und stellt der Reihe nach die aufgenommenen Bilder auf dem Bildschirm der Wiedergabeeinrichtung 4 dar, was in dem Schritt S4 (siehe 4A) geschieht.
  • Während er die auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellten Bilder beobachtet, betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung der CPU 12, den Roboterkörper 1 so zu bewegen, dass die Kamera 11 oberhalb des geprüften Werkstückes 19 angeordnet wird, wobei mindestens ein Teil des geprüften Werkstückes 19 vom Blickfeld FOV der Kamera 11 erfasst wird, was im Schritt S4 geschieht.
  • In dem Schritt S4 betätigt der Benutzer, während er die auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellten Bilder beobachtet, den Unterrichtungszusatz 3 zur Veranlassung der CPU 12, dass sie die Höhe der Kamera 11 in der Z-Richtung und ihre horizontale Position in der X-Y-Ebene des Roboterkoordinatensystems S einstellt. Diese Einstellung ermöglicht es, dass die Gesamtheit des geprüften Werkstückes 19 von dem Blickfeld FOV der Kamera 11 in dem Schritt S4 erfasst wird.
  • Dies hat zur Folge, dass ein ebenes Bild IP des geprüften Werkstückes 19, wie es von seiner Oberseite her gesehen wird, in jedem der aufgenommenen Bilder, welche auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt werden, erscheint (siehe 6).
  • Danach betätigt der Benutzer den Unterrichtungszusatz 3 derart, dass der Cursor im wesentlichen auf eine Mitte des ebenen Bildes IP des geprüften Werkstückes 19 als gewünschter Punkt auf dem ebenen Bild IP bewegt wird und er klickt den Cursor in dem Schritt S5 auf dem gewünschten Punkt an.
  • Dies instruiert die CPU 12 zur Auswahl eines wesentlichen Mittenpunktes C auf der ebenen Darstellung des tatsächlich geprüften Werkstückes 19 von seiner Oberseite aus gesehen. Dies veranlasst die CPU 12 außerdem zur Darstellung des gewählten Punktes C in der ebenen Darstellung des tatsächlich geprüften Werkstückes 19 als ein Punkt C in dem ebenen Bild IP (siehe 6). Der gewählte Punkt kann auf dem ebenen Bild IP nicht dargestellt werden.
  • Darauffolgend betätigt der Benutzer unter Beobachtung des ebenen Bildes IP, dass auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird, den Unterrich tungszusatz 3 derart, dass in dem Schritt S6 eine Instruktion an die CPU 12 geschickt wird.
  • Die Instruktion veranlasst die CPU 12 zur Bewegung des Roboterkörpers 1 in der X-Y-Ebene des Roboterkoordinatensystems derart, dass ein wesentlicher Mittelpunkt des Blickfeldes FOV der Kamera 11 im wesentlichen in Übereinstimmung mit dem gewählten Punkt C auf der ebenen Wiedergabe des tatsächlichen geprüften Werkstückes 19 ist, was in Schritt S6 geschieht.
  • Mit anderen Worten, die Instruktion veranlasst im Schritt S6 die CPU 12 dazu, die Kamera 11 oberhalb des gewählten Punktes C derart anzuordnen, dass die optische Achse der Kamera 11 durch den gewählten Punkt C geht.
  • Es sei beispielsweise angenommen, dass jedes der aufgenommenen Bilder auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird, wie in 6 durch das Bezugszeichen „FI” gezeigt ist. Bei dieser Annahme ermöglicht der Betrieb der CPU 12 in dem Schritt S6, dass der gewählte Punkt C, der auf dem ebenen Bild IP dargestellt wird, auf das Zentrum jedes der aufgenommen Bilder FI ausgerichtet ist, mit anderen Worten, auf das Zentrum des Blickfeldes FOV der Kamera 11. Somit bestimmt die CPU 12 in einfacher Weise, dass die Kamera 11 oberhalb des gewählten Punktes C in der ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 gelegen ist.
  • Man beachte, dass der Benutzer tatsächlich die stellungsmäßige Beziehung zwischen der Kamera 11 und einem wesentlichen Zentrum des geprüften Werkstückes 19 beobachten kann, um hierbei festzustellen, dass die Kamera 11 sich oberhalb des gewählten Punktes C in der ebenen Wiedergabe des geprüften Werkstückes 19 befindet.
  • Nach Ausrichtung zwischen dem gewählten Punkt C in der ebenen Darstellung des geprüften Werkstückes 19 und dem Zentrum des Blickfeldes FOV der Kamera 11 betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zu folgendem:
    Gewinnen der Stellung (Position und Orientierung) des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S für den gewählten Punkt C basierend auf der Information, welche den tatsächlichen Drehwinkel jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt; und
    Speichern der Stellungsdaten in dem RAM-Speicher 16, welche die Stellung des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S anzeigen, in dem Schritt S7.
  • In dem Schritt S7 gewinnt die CPU 12 als die Position des Flansches 10 die X-Achsen-, Y-Achsen- und Z-Achsen- Koordinaten (Xw, Yw und Zp) einer Position in dem Roboterkoordinatensystem S, an welcher der Ursprungspunkt PO des dreidimensionalen Koordinatensystems gelegen ist, welches durch den Flansch 10 definiert ist.
  • Zusätzlich gewinnt in dem Schritt S7 die CPU 12 als die Orientierung des Flansches 10 den Bezugsvektor, welcher durch den Annäherungsvektor A und den Orientierungsvektor O in dem Roboterkoordinatensystem S definiert ist.
  • Dann speichert die CPU 12 als die Stellungsdaten die gewonnene Stellung (gewonnene Position und gewonnene Orientierung) des Flansches 10 des Roboterkörpers 1 in dem Schritt S7 in dem RAM-Speicher 16.
  • Hierauf speichert die CPU 12 in dem RAM-Speicher 16 die X- und Y-Achsenkoordinaten Xw und Yw in der X-Y-Ebene im Roboterkoordinatensystem S, was in dem Schritt S8 geschieht. Man beachte, dass in dem Schritt S8 die CPU 12 die X- und Y-Achsenkoordinaten Xw und Yw in den Dialogfeldern DL1 beziehungsweise DL2 darstellen kann (siehe 4B).
  • Darauffolgend betätigt der Benutzer in dem Schritt S9 den Unterrichtungszusatz 3 zur Eingabe der Differenz der gemessenen Höhe H des geprüften Werkstückes 19 und der gemessenen Höhe h des Ursprungs des Roboterkoordinatensystem S gemäß Schritt S2 unter Verwendung des dreidimensionalen grafischen Modells 1M, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargstellt wird, in die CPU 12.
  • Im Einzelnen betätigt der Benutzer den Unterrichtungszusatz 3 zur Eingabe der Differenz in das Dialogfeld DL3 und klickt das Dialogfeld DL3 an.
  • Das Anklicken des Dialogfeldes DL3 veranlasst die Steuerung 2 zu folgendem:
    Ablesen der eingegeben Differenz „H-h” im Dialogfeld DL3;
    Umwandeln der eingegebenen Differenz „H-h” in die Höhe Zw in der Z-Richtung des Roboterkoordinatensystems S; und
    Speichern der Höhe Zw in der Z-Richtung des Roboterkoordinatensystems S in den RAM-Speicher 16 im Schritt S9.
  • Somit bestimmt die CPU 12 die X-, Y- und Z-Achsenkoordinaten (Xw, Yw und Zw), welche in dem RAM-Speicher 16 gespeichert sind, als die X-, Y- und Z-Achsenkoordinaten eines zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S im Schritt S10, wodurch die Vorbereitungsroutine beendet ist.
  • Nach Bestimmung der Koordinatenposition des zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 im Roboterkoordinatensystem S führt der Benutzer die Festlegung der Objektaufnahmestellungen durch.
  • Im Einzelnen betätigt der Benutzer den Unterrichtungszusatz 3 zur Instruktion der Steuerung 2 zu folgendem:
    Bewegen des Roboterkörpers 1 um das geprüfte Werkstück 19 herum während einer Änderung der Stellung des Roboterkörpers 1;
    Aufnahme eines Bildes durch die Kamera 11; und
    Darstellung des Bildes auf der Wiedergabeeinrichtung 4.
  • Wenn ein gewünschter Prüfpunkt des geprüften Werkstückes 19 in dem Blickfeld FOV der Kamera 11 in einer Stellung des Flansches 10 derart enthalten ist, dass er auf dem Wiedergabegerät 4 dargstellt werden kann, bestimmt der Benutzer, dass die Stellung des Flansches 10 eine Objektaufnahmestellung ist. Der Benutzer betätigt also den Unterrichtungszusatz 3 in der Weise, dass er die Steuerung 2 anweist, die Objektaufnahmestellung beispielsweise in dem RAM-Speicher 16 zu speichern.
  • Diese Vorgänge werden wiederholt durchgeführt. Wenn sämtliche Objektaufnahmestellungen entsprechend sämtlichen gewünschten Prüfpunkten an dem geprüften Werkstück 19 in dem RAM-Speicher 16 gespeichert sind, ist die Festlegung der Objektaufnahmestellungen der Kamera 11 beendet.
  • Während der Festlegungsroutine der Objektaufnahmestellungen kann das Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 sein.
  • In diesem Falle betätigt der Benutzer den Unterrichtungszusatz 3 zur Durchführung eine vorbestimmten Operation, beispielsweise durch Anklicken des anklickbaren Bildfeldes IC, welches in dem Fenster W des Bildschirms der Wiedergabeeinrichtung 4 dargstellt ist. Dies veranlasst die CPU 12 der Steuerung 2 zur Einstellung ihres Operationsmodus auf einen Bezugspunkt-Aufnahmemodus.
  • In dem Bezugspunkt-Aufnahmemodus führt die CPU 12 eine Bezugspunkt-Aufnahmeroutine durch, welche in 7 dargestellt ist. Die Bezugspunkt-Aufnahmeroutine steuert die Bewegung des Roboterkörpers 1, um hierdurch die Orientierung der optischen Achse der Kamera 11 derart zu korrigieren, dass das geprüfte Werkstück 19 im Blickfeld FOV der Kamera 11 erfasst wird und dass der Brennpunkt der Linse der Kamera 11 automatisch auf das geprüfte Werkstück 19 eingestellt wird.
  • Wenn die CPU 12 ihren Betriebsmodus auf den Bezugspunkt-Aufnahmemodus in dem Schritt A1 stellt, dann führt die CPU 12 den Schritt A2 aus.
  • In dem Schritt A2 gewinnt die CPU 12 basierend auf der Information, welche den tatsächlichen Drehwinkel jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt, eine tatsächliche Stellung (Position und Orientierung) des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S.
  • Als nächstes gewinnt die CPU 12 die Koordinatenposition des zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 von dem RAM-Speicher 16 in dem Schritt A2. Dann treibt in dem Schritt A2 die CPU 12 den Roboterkörper 1 derart an, dass die optische Achse der Kamera 11 auf eine Linie ausgerichtet wird, welche die tatsächliche Position des Flansches 10 und die Koordinatenposition des zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 verbindet.
  • Mit anderen Worten treibt in dem Schritt A2 die CPU 12 den Roboterkörper 1 derart an, dass die Kamera 11 in Richtung auf den zeitweilig definierten Bezugspunkt des geprüften Werkstückes 19 orientiert wird.
  • Darauffolgend treibt die CPU 12 den Roboterkörper 1 derart an, dass die Kamera 11 sich von dem geprüften Werkstück 19 in Richtung der optischen Achse wegbewegt, was in dem Schritt A3 geschieht.
  • Während der Bewegung der Kamera 11 in dem Schritt A3 führt die CPU 12 wiederholt eine normale Analyse der aufgenommenen Bilder zur Fokussierungsfestlegung in dem Schritt A4 durch, um hierdurch festzustellen, ob die Linse der Kamera 11 ordnungsgemäß auf das geprüfte Werkstück 11 fokussiert ist, was in dem Schritt A5 geschieht.
  • Während der wiederholten Durchführung der Operationen in den Schritten A4 und A5 stoppt die CPU 12 nach Feststellung, dass die Linse der Kamera 11 ordnungsgemäß auf das Werkstück 11 fokussiert ist (JA in Schritt A5) die Bewegung des Roboterkörpers 1 in dem Schritt A10 und beendet die Bezugspunkt-Aufnahmeroutine.
  • Während der Bewegung der Kamera 11 in dem Schritt A3 bestimmt die CPU 12 nach der Feststellung in dem Schritt 5 im negativen Sinne, ob die Verlagerung der Kamera 11 gleich oder größer als eine Brennweite der Linse der Kamera 11 ist, was im Schritt A6 geschieht.
  • Nach Feststellung, dass die Verschiebung der Kamera 11 gleich oder größer als die Brennweite der Linse der Kamera 11 ist (JA im Schritt A6) stellt die CPU 12 fest, dass eine weitere Bewegung der Kamera 11 weg vom geprüften Werkstück 19 in Richtung der optischen Achse die Linse der Kamera 11 nicht ordnungsgemäß auf das geprüfte Werkstück 19 fokussieren kann.
  • Nach Feststellung, dass die Verschiebung der Kamera 11 gleich oder größer als die Brennweite der Linse der Kamera 11 ist (JA im Schritt A6) fährt also die Kamera 12 im Schritt A7 fort. In dem Schritt A7 stoppt die CPU 12 die Bewegung der Kamera 11 weg von dem geprüften Werkstück 19 in Richtung der optischen Achse und bewegt die Kamera 11 nahe an das geprüfte Werkstück 19 heran in Richtung der optischen Achse.
  • Während der Bewegung der Kamera 11 in dem Schritt A7 führt die CPU 12 wiederholt eine normale Analyse der aufgenommenen Bilder zur Fokussierungsfestlegung in dem Schritt A aus, um hierdurch festzustellen, ob die Linse der Kamera 11 ordnungsgemäß auf das geprüfte Werkstück 11 fokussiert ist, was im Schritt A9 geschieht.
  • Während der wiederholten Durchführung der Operationen in den Schritten A8 und A9 stoppt die CPU 12 nach der Feststellung, dass die Linse der Kamera 11 ordnungsgemäß auf das geprüfte Werkstück 19 fokussiert ist (JA im Schritt A9) die Bewegung des Roboterkörpers 1 in dem Schritt A10 und beendet die Bezugspunkt-Aufnahmeroutine.
  • Die Vollendung der Bezugspunkt-Aufnahmeroutine gestattet es, dass das Werkstück 19 von dem Blickfeld FOV der Kamera 11 wieder erfasst wird. Dann kehrt die CPU 12 zu der Festlegungsroutine der Objektaufnahmestellungen zurück.
  • Im Einzelnen klickt ein Benutzer, selbst wenn das geprüfte Werkstück 19 sich während der Durchführung der Festlegungsroutine der Objektaufnahmestellungen sich außerhalb des Blickfeldes FOV der Kamera 11 befindet, lediglich das anklickbare Bildfeld IC an, um hierdurch die CPU 12 der Steuerung 2 zu veranlassen, ihren Betriebsmodus in den Bezugspunkt-Aufnahmemodus zu stellen. Dies ermöglicht, dass das geprüfte Werkstück 19 wieder in dem Blickfeld FOV der Kamera 11 erfasst wird.
  • Es ist demgemäß möglich, das geprüfte Werkstück 19 leicht wieder in dem Blickfeld FOV der Kamera 11 mit geringem Zeit- und Arbeitsaufwand eines Benutzers zu erfassen, selbst wenn sich das geprüfte Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 befindet.
  • Die Vorbereitungsroutine gemäß der vorliegenden Ausführungsform ist so ausgebildet, dass ein zeitweilig definierter Bezugspunkt des geprüften Werkstückes 19 bestimmt wird, um Situationen zu berücksichtigen, in welchen sich das geprüfte Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 befindet. Die Vorbereitungsroutine, wie sie oben beschrieben wurde, wird nachfolgend auch als ”erste Vorbereitungsroutine” bezeichnet.
  • Als erste, zweite und dritte Modifikation der vorliegenden Ausführungsform können die folgenden zweiten, dritten und vierten Vorbereitungsroutinen, welche von der ersten Vorbereitungsroutine verschieden sind, verwendet werden, um Situationen zu berücksichtigen, in denen sich das geprüfte Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 befindet.
  • Nunmehr seien die zweite Vorbereitungsroutine und die damit verbundenen manuellen Operationen gemäß der ersten Modifikation der vorliegenden Ausführungsform unter Bezugnahme auf die 8 und 9A bis 9C beschrieben. Die zweite Vorbereitungsroutine ist folgendermaßen ausgebildet:
    Gewinnen einer Anzahl von gewünschten Positionen des Flansches 10 über dem geprüften Werkstück 19 in dem Roboterkoordinatensystem S; und
    Bestimmen eines wesentlichen Zentrums einer Figur, welche durch Verbinden der Mehrzahl von gewünschten Positionen des Flansches 10 gebildet wird, als zeitweise definierter Bezugspunkt des geprüften Werkstückes 19.
  • Im Einzelnen führen, wenn ein Benutzer die zweite Vorbereitungsroutine durchzuführen wünscht, der Benutzer und/oder die CPU 12 die Operationen in den Schritten B1 bis B4 durch, welche identisch mit denjenigen in den Schritten S1 bis S4 von 5 sind.
  • Danach betätigt der Benutzer den Unterrichtungszusatz 3 zur Bewegung des Cursors an eine Anzahl von Punkten nahe an der Außenlinie des ebenen Bildes IP, beispielsweise an die vier Punkte E1, E2, E3 und E4, welche in 9A dargestellt sind, und klickt mit dem Cursor an jedem der genannten Punkte E1 bis E4 in dem Schritt B5 an.
  • Dies veranlasst die CPU 12 zur Auswahl von vier Punkten E1 bis E4 nahe an der Außenlinie einer ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 bei Ansicht von dessen Oberseite her. Dies veranlasst die CPU 12 auch zur Darstellung der gewählten vier Punkte E1 bis E4 nahe an der Außenlinie der ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 als Punkte E1 bis E4 auf dem Bildschirm der Wiedergabeeinrichtung 4 (siehe 9A). Man beachte, dass die besonderen Punkte E1 und E2 näher an dem Roboterkörper 1 gelegen sind als die besonderen Punkte E3 und E4.
  • Während das ebene Bild IP, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird, beobachtet wird, betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 dazu, den Roboterkörper 1 in der X-Y-Ebene des Roboterkoordinatensystems S so zu bewegen, dass das wesentliche Zentrum des Blickfeldes FOV der Kamera 11 im Wesentlichen in Übereinstimmung mit jedem der Punkte E1 bis E4 ist, was im Schritt B6 geschieht.
  • Nach Ausrichtung zwischen jedem der gewählten Punkte E1 bis E4 einerseits und der Mitte des Blickfeldes FOV der Kamera 11 andererseits betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zu folgendem:
    Gewinnen der Stellung (Position und Orientierung) des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S für jeden der gewählten Punkte E1 bis E4 basierend auf der Information, welche den tatsächlichen Drehwinkel und die tatsächliche Drehgeschwindigkeit jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt; und
    Speichern der Stellungsdaten, welche die Stellung des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S für jeden der gewählten Punkte E1 bis E4 anzeigen, in dem Schritt B7 in dem RAM-Speicher 16.
  • Im Einzelnen gewinnt im Schritt B7 die CPU 12 als die Position des Flansches 10 für jeden der gewählten Punkte E1 bis E4 die X-Achsen-, Y-Achsen- und Z-Achsen-Koordinaten (Xwn, Ywn und Zpn) zu einer Position in dem Roboterkoordinatensystem S, an welcher der Ursprungspunkt PO des dreidimensionalen Koordinatensystems gelegen ist, welches durch den Flansch 10 definiert ist.
  • Zusätzlich gewinnt in dem Schritt B7 die CPU 12 als die Orientierung des Flansches 10 für jeden der gewählten Punkte E1 bis E4 den Bezugsvektor, welcher durch den Annäherungsvektor A und dem Orientierungsvektor O definiert ist, in dem Roboterkoordinatensystem S.
  • Dann speichert die CPU 12 als die Stellungsdaten die gewonnene Stellung (gewonnene Position und gewonnene Orientierung) des Flansches 10 des Roboterkörpers 1 für jeden der gewählten Punkte E1 bis E4 in dem RAM-Speicher 16 im Schritt B7.
  • Hierauf gewinnt die CPU 12 eine Figur, die durch Verbinden der Koordinatenpositionen des Flansches 10 für die jeweiligen gewählten Punkte E1 bis E4 gebildet wird, im Schritt B8. Dann errechnet die CPU 12 ein wesentliches Zentrum der erhaltenen Figur und stellt die X-Achsen- und Y-Achsen-Koordinaten des errechneten Zentrums der erhaltenen Figur in der X-Y-Ebene des Roboterkoordinatensystems S als X- und Y-Achsen-Koordinaten (Xwn, Ywn) des zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 im Schritt B9 ein.
  • Beispielsweise stellt in dem Schritt B9 die CPU 12 eine vertikale Linie der erhaltenen Figur ein; diese vertikale Linie teilt horizontal die erhaltene Figur in zwei Teile mit jeweils gleicher Fläche, und stellt eine horizontale Linie in der erhaltenen Figur ein; diese horizontale Linie teilt vertikal die erhaltene Figur in zwei Teile mit jeweils gleicher Fläche. Die CPU 12 bestimmt einen Schnittpunkt der vertikalen und der horizontalen Linie als das wesentliche Zentrum der erhaltenen Figur.
  • Der Benutzer und die CPU 12 führen die Operationen in dem Schritt B10 entsprechend denjenigen im Schritt S9 aus, so dass eine Höhe Zwn in der Z-Richtung des Roboterkoordinatensystems S in dem RAM-Speicher 16 gespeichert wird.
  • Die CPU 12 bestimmt also die X-, Y- und Z-Achsen-Koordinaten (Xwn, Ywn und Zwn), welche in dem RAM-Speicher 16 gespeichert sind, als die X-, Y- und Z-Achsen-Koordinaten des zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S im Schritt B11, womit die zweite Vorbereitungsroutine beendet wird.
  • Man beachte, dass, wie in 9A dargestellt ist, die vier Punkte E1, E2, E3 und E4 außerhalb der Außenlinie des ebenen Bildes IP gelegen sind, doch können sie auch innerhalb der Außenlinie des Bildes gelegen sein (siehe 9B). Anderenfalls können auch einige der vier Punkte E1, E2, E3 und E4 außerhalb der Außenlinie des ebenen Bildes IP gelegen sein und die übrigen Punkte können innerhalb der Außenlinie des Bildes gelegen sein (siehe 9C).
  • Nunmehr seien die dritte Vorbereitungsroutine und die damit verbundenen manuellen Operationen gemäß der zweiten Modifikation der vorliegenden Ausführungsform nachfolgend unter Bezugnahme auf die 10 bis 13 beschrieben. Die dritte Vorberei tungsroutine ist so ausgebildet, dass sie eine Anzahl von partiellen Zentrumspunkten einer ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 auswählt. Die dritte Vorbereitungsroutine kann vorzugsweise bei Werkstücken großer Abmessungen und Werkstücken mit jeweils unterschiedlich gestalteten Bereichen angewendet werden.
  • Im einzelnen führen, wenn ein Benutzer die dritte Vorbereitungsroutine ausführen will, der Benutzer und/oder die CPU 12 die Operationen in den Schritten C1 bis C4 durch, welche identisch mit denjenigen in den Schritten S1 bis S4 gemäß 5 sind. Danach betätigt der Benutzer den Unterrichtungszusatz 3 zur Bewegung des Cursors an eine Anzahl von gewünschten Punkten in dem ebenen Bild IP, beispielsweise zu den zwei Punkten C1 und C2, welche in 10 oder 11 angegeben sind, und klickt mit dem Cursor jeden der besonderen Punkte C1 und C2 an.
  • Dies veranlasst die CPU 12 dazu, zwei Punkte C1 und C2 in der ebenen Darstellung des tatsächlichen geprüften Werkstückes 19, wie sie von dessen Oberseite gesehen wird, auszuwählen. Auch veranlasst dies die CPU 12 zur Darstellung der ausgewählten beiden Punkte C1 und C2 in der ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 als die Punkte C1 und C2 auf dem Bildschirm der Wiedergabeeinrichtung 4 (siehe 10 oder 11).
  • Als nächstes betätigt der Benutzer, während er das ebene Bild IP, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird, beobachtet, den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zur Bewegung des Roboterkörpers 1 in der X-Y-Ebene des Roboterkoordinatensystems derart, dass die wesentliche Mitte des Blickfeldes FOV der Kamera 11 im Wesentlichen in Übereinstimmung mit jedem der Punkte C1 und C2 in der ebenen Darstellung des tatsächlichen geprüften Werkstücks 19 ist, was in dem Schritt C6 geschieht.
  • Nach Ausrichtung zwischen jedem der gewählten Punkte C1 und C2 in der ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 und dem Zentrum des Blickfeldes FOV der Kamera 11 betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zu folgendem:
    Gewinnen der Stellung (Position und Orientierung) des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S für jeden der ausgewählten Punkte C1 und C2 basierend auf der Information, welche den tatsächlichen Drehwinkel und die tatsächliche Winkelgeschwindigkeit jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt; und
    Speichern der Stellungsdaten im RAM-Speicher 16, welche die Stellung des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S für jeden der gewählten Punkte C1 und C2 anzeigen, im Schritt C7.
  • Im Einzelnen gewinnt in dem Schritt C7 die CPU 12 als die Position des Flansches 10 für jeden der gewählten Punkte C1 und C2 die X-Achsen, Y-Achsen- und Z-Achsen-Koordinaten (Xwn, Ywn und Zpn) einer Position in dem Roboterkoordinatensystem S, welchen der Ursprungspunkt PO des dreidimensionalen Koordinatensystems einnimmt, das von dem Flansch 10 definiert wird.
  • Zusätzlich gewinnt die CPU 12 in dem Schritt C7 als die Orientierung des Flansches 10 für jeden der gewählten Punkte C1 und C2 den Bezugsvektor, welcher durch den Annäherungsvektor A und den Orientierungsvektor O im Roboterkoordinatensystem S definiert ist.
  • Dann speichert die CPU 12 als die Stellungsdaten die erhaltene Stellung (erhaltene Position und erhaltene Orientierung) des Flansches 10 des Roboterkörpers 1 für jeden der gewählten Punkte C1 und C2 im RAM-Speicher 16 in dem Schritt C7.
  • Als nächstes gewinnt die CPU 12 als die Position des Flansches 10 für die gewählten Punkte C1 und C2 die X-Achsen-, Y-Achsen- und Z-Achsen-Koordinaten (Xwn, Ywn und Zpn) einer Position in dem Roboterkoordinatensystem S, an welcher der Ursprungspunkt PO des dreidimensionalen Koordinatensystems liegt, welcher in dem Flansch 10 definiert ist.
  • Der Benutzer und die CPU 12 führen in dem Schritt C9 die Operationen entsprechend denjenigen in dem Schritt S9 aus, so dass eine Höhe Zwn in der Z-Richtung des Robotersystems RS in dem RAM-Speicher 16 gespeichert wird.
  • Die CPU 12 bestimmt daher die X-, Y- und Z-Achsen-Koordinaten (Xwn, Ywn und Zwn) für jeden der gewählten Punkte C1 und C2, welche in dem RAM-Speicher 16 gespeichert sind, als die X-, Y- und Z-Achsen-Koordinaten eines entsprechenden der zeitweise definierten Bezugspunkte des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S in dem Schritt B10, womit die dritte Vorbereitungsroutine beendet wird.
  • Nach dem Bestimmen der Koordinatenposition für jeden der zeitweise definierten Bezugspunkte des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S führt der Benutzer die Bestimmungsroutine für die Objektaufnahmestellungen in der oben angegebenen Weise durch.
  • Während der Bestimmungsroutine für die Objektaufnahmestellungen kann sich das geprüfte Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 befinden.
  • In diesem Falle betätigt der Benutzer den Unterrichtungszusatz 3 und klickt das anklickbare Bildfeld IC an, welches in dem Fenster W auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird. Dies veranlasst die CPU 12 der Steuerung 2 zur Einstellung ihres Betriebsmodus auf den Bezugspunkt-Aufnahmemodus.
  • In dem Bezugspunkt-Aufnahmemodus führt die CPU 12 eine Bezugspunkt-Aufnahmeroutine durch, welche in 13 dargestellt ist.
  • Wenn die CPU 12 ihren Betriebsmodus auf den Bezugspunkt-Aufnahmemodus in dem Schritt D1 stellt, schreitet die CPU 12 zu dem Schritt D2 fort.
  • In dem Schritt D2 gewinnt die CPU 12 basierend auf der Information, welche den tatsächlichen Drehwinkel jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt, eine tatsächliche Stellung (Position und Orientierung) des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S.
  • Als nächstes wählt die CPU 12 in dem Schritt D2 einen der zeitweise definierten Bezugspunkte des geprüften Werkstückes 19 aus; dieser eine der zeitweise definierten Bezugspunkte des geprüften Werkstückes 19 liegt näher an der tatsächlichen Position des Flansches 10 des Roboterkörpers 1 als der andere.
  • Dann gewinnt in dem Schritt D3 die CPU 12 die Koordinatenposition des ausgewählten der zeitweise definierten Bezugspunkte des geprüften Werkstücks 19 aus dem RAM-Speicher 16. In dem Schritt D3 treibt die CPU 12 den Roboterkörper 1 derart an, dass die optische Achse der Kamera 11 auf eine Linie ausgerichtet ist, welche die tatsächliche Position des Flansches 10 und die Koordinatenposition des ausgewählten der zeitweise definierten Bezugspunkte des geprüften Werkstückes 19 verbindet.
  • Danach führt die CPU 12 in den Schritten D4 bis D11 die Operationen durch, welche denjenigen in den Schritten A3 bis A10 nach 7 entsprechen.
  • Die Vervollständigung der Aufnahmeroutine der zeitweise definierten Bezugspunkte ermöglicht, dass das geprüfte Werkstück 19 wieder in dem Blickfeld FOV der Kamera 11 erfasst wird. Dann kehrt die CPU 12 zu der Festlegungsroutine der Objektaufnahmestellungen zurück.
  • Im Einzelnen klickt ein Benutzer, selbst wenn das geprüfte Werkstück 19 sich außerhalb des Blickfeldes FOV der Kamera 11 während der Durchführung der Festigungsroutine der Objektaufnahmestellungen befindet, lediglich das anklickbare Bildfeld IC an, um hierdurch die CPU 12 der Steuerung 2 zu veranlassen, ihren Betriebsmodus auf den Bezugspunkt-Aufnahmemodus zu stellen. Dies ermöglicht, dass das geprüfte Werkstück 19 wieder von dem Blickfeld FOV der Kamera 11 erfasst wird.
  • Es ist somit in einfacher Weise möglich, das geprüfte Werkstück 19 wieder in dem Blickfeld FOV der Kamera 11 mit geringem zeitlichen Aufwand und Arbeitsauf wand eines Benutzers zu erfassen, selbst wenn sich das geprüfte Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 befindet.
  • Wenn sich das geprüfte Werkstück 19 außerhalb des Blickfeldes FOV der Kamera 11 befindet, dann bewegen zusätzlich die CPU 12 und der Benutzer den Roboterkörper 1 in Richtung auf einen der zeitweise definierten Bezugspunkte des geprüften Werkstückes 19, welcher näher an der tatsächlichen Position des Flansches 10 des Roboterkörpers 1 liegt als der andere der Punkte.
  • Dies ermöglicht es, die Verlagerung des Roboterkörpers 1 für das Wiedererfassen des geprüften Werkstückes 19 im Blickfeld FOV der Kamera 11 zu reduzieren.
  • Nun sei die vierte Vorbereitungsroutine mit den damit verbundenen manuellen Vorgängen gemäß der dritten Modifikation der vorliegenden Ausführungsform nachfolgend unter Bezugnahme auf die 14 und 15 beschrieben. Die dritte Vorbereitungsroutine ist so ausgebildet, dass eine Anzahl von partiellen Zentrumspunkten einer ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 ausgewählt wird; jeder der Anzahl der partiellen Zentrumspunkten ist ein wesentlicher Mittelpunkt einer Figur, welche durch Verbinden einer Anzahl gewünschter Positionen des Flansches 10 gebildet wird.
  • Im Einzelnen führen, wenn ein Benutzer die vierte Vorbereitungsroutine ausführen will, der Benutzer und/oder die CPU 12 die Operationen in den Schritten E1 bis E4 durch, welche identisch denjenigen in den Schritten S1 bis S4 nach 5 sind.
  • Danach betätigt der Benutzer den Unterrichtungszusatz 3 zur Bewegung des Cursors an eine Anzahl von Punkten nahe an der Umrisslinie des ebenen Bildes IP, beispielsweise acht Punkte E1 bis E8 welche in 15 gezeigt sind. Man beachte, dass die besonderen Punkte E1, E2, E5 und E6 näher an dem Roboterkörper 1 liegen als die besonderen Punkte E3, E4, E7 und E8.
  • Der Benutzer betätigt den Unterrichtungszusatz 3 auch zum Anklicken des Cursors auf jedem der besonderen Punkte E1, E2, E3 und E4; diese besonderen Punkte E1 bis E4 bilden eine erste Gruppe.
  • Dies veranlasst die CPU 12 zur Auswahl einer ersten Gruppe von vier Punkten E1 bis E4 nahe an der Umrisslinie einer ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 mit Blickrichtung von seiner Oberseite. Dies veranlasst die CPU 12 auch zur Darstellung der ausgewählten vier Punkte E1 bis E4 der ersten Gruppe als Punkte E1 bis E4 auf dem Bildschirm der Wiedergabeeinrichtung 4 in dem Schritt E5 nach 14.
  • Zusätzlich betätigt der Benutzer den Unterrichtungszusatz 3 zum Anklicken des Cursors an jedem der besonderen Punkte E5, E6, E7 und E8; Diese besonderen Punkte E5 bis E8 bilden eine zweite Gruppe.
  • Dies veranlasst die CPU 12 zur Auswahl einer zweiten Gruppe von vier Punkten E5 bis E8 nahe an der Umrisslinie der ebenen Darstellung des tatsächlichen geprüften Werkstückes 19 bei Blickrichtung von seiner Oberseite. Dies veranlasst die CPU 12 ferner zur Darstellung der ausgewählten vier Punkte E5 bis E8 der zweiten Gruppe als Punkte E5 bis E8 auf dem Bildschirm der Wiedergabeeinrichtung 4 in dem Schritt E5 (siehe 14).
  • Als nächstes betätigt der Benutzer unter Beobachtung des ebenen Bildes IP, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird, den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zur Bewegung des Roboterkörpers 1 in der X-Y-Ebene des Roboterkoordinatensystems derart, dass das wesentliche Zentrum des Blickfeldes FOV der Kamera 11 im Wesentlichen mit jedem der Punkte E1 bis E4 der ersten Gruppe und jedem der Punkte E5 bis E6 der zweiten Gruppe übereinstimmt, was in dem Schritt E6 geschieht.
  • Nach Ausrichtung zwischen jedem der ausgewählten Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe und des Zentrums des Blickfeldes FOV der Kamera 11 betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zu folgendem:
    Gewinnen einer Stellung (Position und Orientierung) des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S für jeden der ausgewählten Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe basierend auf der Information welche den tatsächlichen Drehwinkel und die tatsächliche Winkelgeschwindigkeit jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt; und
    Speichern der Stellungsdaten in dem RAM-Speicher 16, welche die Stellung des Flansches 10 des Roboterkörpers 1 in dem Roboterkoordinatensystem S für jeden der ausgewählten Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe anzeigt, in dem Schritt E7.
  • Im Einzelnen gewinnt in dem Schritt E7 die CPU 12 als die Position des Flansches 10 für jeden der ausgewählten Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe die X-Achsen-, Y-Achsen- und Z-Achsen-Koordinaten (Xwn, Ywn und Zpn) einer Position im Roboterkoordinatensystem S, an welcher der Ursprungspunkt PO des dreidimensionalen Koordinatensystems, welches in dem Flansch 10 definiert ist, zu liegen kommt.
  • Zusätzlich gewinnt in dem Schritt E7 die CPU 12 als die Orientierung des Flansches 10 für jeden der ausgewählten Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe den Bezugsvektor, welcher durch den Annäherungsvektor A und den Orientierungsvektor O in dem Roboterkopfkoordinatensystem S definiert ist.
  • Dann speichert die CPU 12 als die Stellungsdaten die gewonnene Stellung (gewonnenen Position und gewonnene Orientierung) des Flansches 10 des Roboterkörpers 1 für jeden der ausgewählten Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe in dem RAM-Speicher 16 in dem Schritt E7.
  • Als nächstes gewinnt die CPU 12 eine erste Figur, welche durch Verbinden der Koordinatenpositionen des Flansches 10 für die jeweiligen ausgewählten Punkte E1 bis E4 der ersten Gruppe gebildet wird, und eine zweite Figur, welche durch Verbinden der Koordinatenpositionen des Flansches 10 für die jeweiligen ausgewählten Punkte E5 bis E8 der zweiten Gruppe gebildet wird, was in dem Schritt E8 geschieht. Dann errechnet die CPU 12 ein erstes wesentliches Zentrum der gewonnenen ersten Figur und ein zweites wesentliches Zentrum der gewonnenen zweiten Figur in dem Schritt E8.
  • Danach stellt die CPU 12 in dem Schritt E9 die X- und Y-Achsen-Koordinaten des ersten wesentlichen Zentrums der gewonnenen ersten Figur in der X-Y-Ebene des Roboterkoordinatensystems S als die X- und Y-Achsen-Koordinaten (Xon1, Yon1) des ersten zeitweise definierten Bezugspunktes des geprüften Werkstückes 19 ein.
  • In entsprechender Weise stellt die CPU 12 in dem Schritt E9 die X- und Y-Achsen-Koordinaten des zweiten wesentlichen Zentrums der gewonnenen zweiten Figur und der X-Y-Ebene des Roboterkoordinatensystems S als die X- und Y-Achsen-Koordinaten (Xon2, Yon2) des zweiten zeitweise definierten Bezugspunktes des geprüften Werkstückes 19 ein.
  • Der Benutzer und die CPU 12 führen in dem Schritt E10 die Operationen aus, welche gleichwertig denjenigen im Schritt S9 sind, so dass eine Höhe Zon in der Z-Richtung des Robotersystems RS in dem RAM-Speicher 16 gespeichert wird.
  • Die CPU 12 bestimmt somit die X-, Y- und Z-Achsen-Koordinaten (Xon1, Yon1 und Zon), welche in dem RAM-Speicher 16 gespeichert sind, als die X-, Y- und Z-Achsen-Koordinaten des ersten zeitweise definierten Bezugspunktes des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S in dem Schritt E11. In entsprechender Weise bestimmt die CPU 12 die X-, Y- und Z-Achsen-Koordinaten (Xon2, Yon2 und Zon), welche in dem RAM-Speicher 16 gespeichert sind, als die X-, Y- und Z-Achsen-Koordinaten des zweiten zeitweilig definierten Bezugspunktes des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S im Schritt E11. Danach beendet die CPU 12 die vierte Vorbereitungsroutine.
  • Nach Bestimmung der Koordinatenposition jedes der zeitweilig definierten Bezugspunkte des geprüften Werkstückes 19 in dem Roboterkoordinatensystem S führt der Benutzer die Festlegungsroutine der Objektaufnahmestellungen durch, wie dies oben ausgeführt wurde.
  • Während der Festlegungsroutine der Objektaufnahmestellungen kann das geprüfte Werkstück 19 sich außerhalb des Blickfeldes FOV der Kamera 11 befinden.
  • In diesem Falle betätigt der Benutzer den Unterrichtungszusatz 3 zum Anklicken des anklickbaren Bildfeldes IC, welches in dem Fenster W des Bildschirmes der Wiedergabeeinrichtung 4 dargestellt ist. Dies veranlasst die CPU 12 der Steuerung 2 zur Einstellung ihres Betriebsmodus auf den zeitweilig definierten Zentrumsaufnahmemodus.
  • In dem zeitweilig definierten Zentrumsaufnahmemodus führt die CPU 12 die Bezugspunktaufnahmeroutine durch, wie sie in 13 dargestellt ist und oben behandelt wurde.
  • In der vierten Vorbereitungsroutine bewegen die CPU 12 und der Benutzer, wenn das geprüfte Werkstück 19 sich außerhalb des Blickfeldes FOV der Kamera 11 befindet, den Roboterkörper 1 in Richtung auf einen der ersten und zweiten zeitweilig definierten Bezugspunkte des geprüften Werkstückes 19, der näher an der tatsächlichen Position des Flansches 10 des Roboterkörpers 1 liegt, als der andere der Punkte.
  • Dies ermöglicht es, die Verschiebung des Roboterkörpers 1 zur Erfassung des geprüften Werkstückes 19 in dem Blickfeld FOV der Kamera 11 zu reduzieren.
  • Die Kamera 11 kann an der vordersten Endfläche des Flansches 10 derart befestigt sein, dass die optische Achse L der Linse der Kamera 11 gegenüber einer Koordinatenachse, welche in dem Flansch 10 definiert ist, fehlausgerichtet ist. Bei dieser Modifikation kann die Kamera 11 von der äußersten Endfläche des Flansches 10 derart befestigt sein, dass die optische Achse L der Linse der Kamera 11 folgende Eigenschaft hat:
    orthogonal zu einer Koordinatenachse, welche in dem Flansch 10 definiert ist;
    parallel zu einer Koordinatenachse, welche in dem Flansch 10 definiert ist; oder
    geneigt zu einer Koordinatenachse, welche in dem Flansch 10 definiert ist.
  • Wenn Informationen, welche die lagemäßige Beziehung zwischen der optischen Achse der Kamera 11 und einer Koordinatenachse des Flansches 10 anzeigen, beispielsweise in dem RAM-Speicher 16 der Steuerung 2 gespeichert sind, dann richtet die CPU 2 im wesentlichen die Kamera 11 in Richtung auf einen zeitweilig definierten Bezugspunkt des geprüften Werkstückes 19 derart, dass das geprüfte Werkstück 19 mindestens teilweise in dem Blickfeld FOV der Kamera 11 erfasst wird.
  • In der vierten Vorbereitungsroutine kann die Anzahl der zeitweilig definierten Bezugspunkte des geprüften Werkstückes 19 so gewählt werden, dass sie größer als 2 ist.
  • Die Kamera 11 kann als eine Kamera mit einem Autofokussierungsmechanismus oder als eine Kamera mit einer Mehrzahl von Linsen ausgebildet sein, welche unterschiedliche Brennweiten haben.
  • Die vorliegende Erfindung kann auf vielerlei Robotersysteme angewendet werden, beispielsweise auf ein Montagerobotersystem oder ein Beschichtungsrobotersystem.
  • Die vorliegende Erfindung kann auf vielerlei Gestalten und Strukturen von Robotern angewendet werden, ohne dass eine Beschränkung auf einen vertikal gelenkigem Roboter besteht.
  • Während hier beschrieben wurde, was gegenwärtig als Ausführungsform der vorliegenden Erfindung und ihre Modifikationen angesehen wird, versteht es sich, dass vielerlei Modifikationen, welche hier nicht beschrieben sind, vorgenommen werden können, derart, dass sämtliche derartige Modifikationen im Rahmen der anliegenden Ansprüche von der durch die Erfindung gegebenen technischen Lehre umfasst werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2008-062671 [0001]
    • - JP 08-313225 [0004]
    • - US 6642922 [0012]
    • - JP 11-242513 [0012]

Claims (11)

  1. Einrichtung zur Bestimmung einer Aufnahmestellung eines Roboterarms mit einer Kamera in einem dreidimensionalen Koordinatensystem, wenn ein Bild eines Werkstückes von der Kamera aufgenommen werden soll, wobei das Werkstück auf einer Bezugsebene montiert ist und die Einrichtung folgendes umfasst: eine Eingabeeinheit, welche so ausgebildet ist, dass eine erste Koordinate des Werkstücks auf einer ersten Achse des dreidimensionalen Koordinatensystems eingegeben wird, wobei die erste Achse so definiert ist, dass sie orthogonal zu der Bezugsebene orientiert ist; eine Koordinatengewinnungseinheit, welche so ausgebildet ist, dass sie: den Roboter zur Bewegung der Kamera gegenüber dem Werkstück in der ersten Richtung antreibt, so dass mindestens ein Teil des Werkstücks in einem Blickfeld (FOV) der Kamera erfasst wird; und zweite und dritte Koordinaten eines vorbestimmten Punktes des Roboterarmes auf den jeweiligen zweiten und dritten Achsen des dreidimensionalen Koordinatensystems gewinnt, wobei mindestens der Teil des Werkstücks in dem Blickfeld der Kamera erfasst ist und die zweiten und dritten Achsen orthogonal zu der ersten Achse sind und ferner die ersten, zweiten und dritten Koordinaten als Koordinaten eines zeitweise definierten Bezugspunkt des Werkstücks in dem dreidimensionalen Koordinatensystem definiert sind; und eine Stellungsbestimmungseinheit, welche so ausgebildet ist, dass sie mit einer bestimmten Zeitvorgabe den Roboterarm so antreibt, dass eine Stellung des vorbestimmten Punktes des Roboterarms basierend auf einer stellungsmäßigen Beziehung zwischen den ersten, zweiten und dritten Koordinaten des zeitweise be stimmten Bezugspunktes des Werkstückes und den tatsächlichen Koordinaten des vorbestimmten Punktes des Roboterarms festgelegt wird.
  2. Einrichtung nach Anspruch 1, bei welcher die Stellungsbestimmungseinheit so ausgebildet ist, dass sie mit bestimmter Zeitvorgabe den Roboterarm zur Festlegung der Stellung des vorbestimmten Punktes des Roboterarms basierend auf der positionsmäßigen Beziehung zwischen den ersten, zweiten und dritten Koordinaten des zeitweise definierten Bezugspunktes des Werkstückes und den tatsächlichen Koordinaten des vorbestimmten Punktes des Roboterarmes derart festlegt, dass eine optische Achse der Kamera auf den zeitweise definierten Bezugspunkt des Werkstücks ausgerichtet ist.
  3. Einrichtung nach Anspruch 1, bei welcher die Koordinatengewinnungseinheit folgendes umfasst: eine erste Antriebseinheit, welche so ausgebildet ist, dass sie den Roboter zur Bewegung der Kamera gegenüber dem Werkstück in der ersten Richtung derart antreibt, dass der mindestens eine Teil des Werkstückes in dem Blickfeld der Kamera erfasst wird; eine Spezifizierungseinheit, welche so ausgebildet ist, dass sie einen gewünschten Punkt auf dem Werkstück als den zeitweise definierten Bezugspunkt spezifiziert; und eine zweite Antriebseinheit, welche so ausgebildet ist, dass sie den Roboter zur Bewegung der Kamera derart antriebt, dass die optische Achse der Kamera durch den spezifizierten Punkt geht; und eine Gewinnungseinheit, welche so ausgebildet ist, dass sie die zweiten und dritten Koordinaten des vorbestimmten Punktes des Roboterarmes in den jeweiligen zweiten und dritten Koordinatenachsen des dreidimensionalen Koordinatensystems gewinnt, wobei die optische Achse der Kamera durch den spezifizierten Punkt geht.
  4. Einrichtung nach Anspruch 3, bei welcher die Spezifizierungseinheit so ausgebildet ist, dass sie: ein Bild des Werkstücks aufnimmt und wiedergibt, wobei der mindestens eine Teil des Werkstücks in dem Blickfeld der Kamera erfasst ist; und einen Punkt auf dem dargestellten Bild des Werkstücks beschreibt, der dem spezifizierten Punkt auf dem Werkstück als der zeitweise definierte Bezugspunkt entspricht.
  5. Einrichtung nach Anspruch 4, bei welcher der spezifizierte Punkt am wesentlichen Zentrum des dargestellten Bildes des Werkstücks gelegen ist.
  6. Einrichtung nach Anspruch 1, bei welcher die Koordinatengewinnungseinheit folgendes umfasst: eine erste Antriebseinheit, welche so ausgebildet ist, dass sie den Roboterarm zur Bewegung der Kamera gegenüber dem Werkstück in der ersten Richtung derart antreibt, dass der mindestens eine Teil des Werkstücks in dem Blickfeld der Kamera erfasst wird; eine Spezifizierungseinheit, welche so ausgebildet ist, dass sie eine Anzahl gewünschter Punkte auf dem Werkstück spezifiziert; und eine zweite Antriebseinheit, welche so ausgebildet ist, dass sie den Roboter zur Bewegung der Kamera derart antreibt, dass die optische Achse der Kamera durch jeden der Anzahl von spezifizierten Punkten geht; und eine Gewinnungseinheit, welche so ausgebildet ist, dass sie: Koordinaten der vorbestimmten Punkte des Roboterarmes auf den jeweiligen zweiten und dritten Achsen des dreidimensionalen Koordinatensystems gewinnt, wobei die optische Achse der Kamera durch jeden der Anzahl von spezifizierten Punkten geht; und als die zweiten und dritten Koordinaten des vorbestimmten Punktes des Roboterarmes Koordinaten eines Zentrums einer Figur bestimmt, welche durch Verbinden der Koordinaten des vorbestimmten Punktes des Roboterarms für die jeweiligen spezifischen Punkte gebildet wird.
  7. Einrichtung nach Anspruch 6, bei welcher die Spezifizierungseinheit so ausgebildet ist, dass sie: ein Bild des Werkstücks aufnimmt und wiedergibt, wobei der wenigstens eine Teil des Werkstücks in dem Blickfeld der Kamera erfasst wird; und eine Anzahl von Punkten auf und um das dargestellte Bild des Werkstücks spezifizieret, wobei die Anzahl der spezifizierten Bildpunkte der Anzahl der spezifizierten Punkte jeweils entspricht.
  8. Einrichtung nach Anspruch 1, bei welcher der zeitweise definierte Bezugspunkt eine Anzahl von zeitweise definierten Bezugspunkten ist und die Koordinatengewinnungseinheit folgendes umfasst: eine erste Antriebseinheit, welche so ausgebildet ist, dass sie den Roboter zur Bewegung der Kamera gegenüber dem Werkstück in der ersten Richtung derart antreibt, dass der mindestens eine Teil des Werkstücks in dem Blickfeld der Kamera erfasst wird; eine Spezifizierungseinheit, welche so ausgebildet ist, dass sie eine Anzahl von gewünschten Punkten auf dem Werkstück als die Anzahl von zeitweise definierten Bezugspunkten spezifiziert; und eine zweite Antriebseinheit, welche so ausgebildet ist, dass sie den Roboterarm zur Bewegung der Kamera derart antreibt, dass die optische Achse der Kamera durch jeden der Anzahl von spezifizierten Punkten geht; und eine Gewinnungseinheit, welche so ausgebildet ist, dass sie die zweiten und dritten Koordinaten des vorbestimmten Punktes des Roboterarms auf den jeweiligen zweiten und dritten Achsen des dreidimensionalen Koordinatensystems gewinnt, wobei die optische Achse der Kamera durch jeden der Anzahl von spezifizierten Punkten geht und die ersten, zweiten und dritten Koordinaten jedes der Anzahl von spezifizierten Punkten als die Koordinaten eines entsprechenden der Anzahl von zeitweise definierten Bezugspunkten des Werkstückes in dem dreidimensionalen Koordinatensystem definiert werden.
  9. Einrichtung nach Anspruch 8, bei welcher die Spezifizierungseinheit so ausgebildet ist, dass sie: ein Bild des Werkstücks aufnimmt und wiedergibt, wobei mindestens ein Teil des Werkstücks in dem Blickfeld der Kamera erfasst ist; und eine Anzahl von Bildpunkten auf dem wiedergegebenen Bild des Werkstückes spezifiziert, wobei die Anzahl der spezifizierten Bildpunkte der Anzahl von spezifizierten Punkten jeweils entspricht.
  10. Einrichtung nach Anspruch 1, bei welcher der zeitweise definierte Bezugspunkt eine Anzahl von zeitweise definierten Bezugspunkten ist und die Koordinatengewinnungseinheit folgendes umfasst: eine erste Antriebseinheit, welche so ausgebildet ist, dass sie den Roboter zur Bewegung der Kamera gegenüber dem Werkstück in der ersten Richtung derart antreibt, dass der mindestens eine Teil des Werkstücks in dem Blickfeld der Kamera erfasst wird; eine Spezifizierungseinheit, welche so ausgebildet ist, dass sie eine Anzahl von Gruppen von gewünschten Punkten auf dem Werkstück spezifiziert; und eine zweite Antriebseinheit, welche so ausgebildet ist, dass sie den Roboter zur Bewegung der Kamera derart antreibt, dass die optische Achse der Kamera durch jeden der Anzahl von Gruppen von spezifizierten Punkten geht; und eine Gewinnungseinheit, welche so ausgebildet ist, dass sie: Koordinaten des voreingestellten Punktes des Roboterarms auf den jeweiligen zweiten und dritten Achsen des dreidimensionalen Koordinatensystems gewinnt, wobei die optische Achse der Kamera durch jeden der Anzahl von Gruppen von spezifizierten Punkten geht; und Koordinaten eines Zentrums sowohl einer ersten Figur als auch einer zweiten Figur bestimmt, wobei die erste Figur durch Verbinden der Koordinaten der vorbestimmten Punkte des Roboterarms für die jeweiligen spezifizierten Punkte der ersten Gruppe gebildet wird, die zweite Figur durch Verbinden der Koordinaten der vorbestimmten Punkte des Roboterarms für die jeweiligen spezifizierten Punkte der zweiten Gruppe gebildet wird und die Koordinaten des Zentrums jeder der ersten und der zweiten Figuren die zweiten und dritten Koordinaten des vor bestimmten Punktes des Roboterarms für einen entsprechenden der Anzahl von zeitweise bestimmten Punkten bilden.
  11. Einrichtung nach Anspruch 10, bei welcher die Spezifizierungseinheit so ausgebildet ist, dass sie: ein Bild des Werkstücks aufnimmt und wiedergibt, wobei der mindestens eine Teil des Werkstücks durch das Blickfeld der Kamera erfasst wird; und eine Anzahl von Gruppen von Bildpunkten auf oder um das wiedergegebene Bild des Werkstücks spezifiziert, wobei die Anzahl von Gruppen der spezifizierten Bildpunkte der Anzahl von spezifizierten Punkten jeweils entspricht.
DE102009012590A 2008-03-12 2009-03-11 Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen Ceased DE102009012590A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008062671A JP4508252B2 (ja) 2008-03-12 2008-03-12 ロボット教示装置
JP2008-062671 2008-03-12

Publications (1)

Publication Number Publication Date
DE102009012590A1 true DE102009012590A1 (de) 2009-11-19

Family

ID=41063928

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009012590A Ceased DE102009012590A1 (de) 2008-03-12 2009-03-11 Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen

Country Status (3)

Country Link
US (1) US8406923B2 (de)
JP (1) JP4508252B2 (de)
DE (1) DE102009012590A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018109774B4 (de) 2017-05-17 2019-06-13 Omron Corporation Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008063680A1 (de) * 2008-10-10 2010-04-15 Abb Ag Verfahren zum Einlernen (Teachen) eines Industrieroboters sowie ein entsprechend ausgestatteter Industrieroboter
JP2011000703A (ja) 2009-05-19 2011-01-06 Canon Inc カメラ付きマニピュレータ
JP2011115877A (ja) * 2009-12-02 2011-06-16 Canon Inc 双腕ロボット
US8634950B2 (en) * 2009-12-14 2014-01-21 Embraer S.A. Automated positioning and alignment method and system for aircraft structures using robots
JP5539001B2 (ja) * 2010-05-07 2014-07-02 本田技研工業株式会社 制御装置
US9131118B2 (en) * 2012-11-14 2015-09-08 Massachusetts Institute Of Technology Laser speckle photography for surface tampering detection
CN104765380B (zh) 2014-01-03 2017-04-19 科沃斯商用机器人有限公司 光点指示机器人及其光点指示方法
US9259844B2 (en) 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
CN103862477B (zh) * 2014-03-31 2016-03-30 内蒙古科技大学 一种自主抓物机械手的上位机控制方法
JP6631279B2 (ja) * 2015-03-19 2020-01-15 株式会社デンソーウェーブ ロボット操作装置、ロボット操作プログラム
US10048851B2 (en) * 2015-03-19 2018-08-14 Denso Wave Incorporated Apparatus for operating robots
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP6601155B2 (ja) * 2015-10-28 2019-11-06 株式会社デンソーウェーブ ロボット制御システム
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
JP6457441B2 (ja) * 2016-07-12 2019-01-23 ファナック株式会社 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
SG10201608757PA (en) * 2016-10-19 2018-05-30 Component Aerospace Singapore Pte Ltd Method and apparatus for facilitating part verification
CN109789548B (zh) * 2016-11-08 2022-06-28 Abb瑞士股份有限公司 用于工件校准的方法和使用该方法的机器人系统
JP6534126B2 (ja) * 2016-11-22 2019-06-26 パナソニックIpマネジメント株式会社 ピッキングシステム及びその制御方法
JP6973233B2 (ja) * 2017-05-17 2021-11-24 オムロン株式会社 画像処理システム、画像処理装置および画像処理プログラム
USD873324S1 (en) 2017-06-15 2020-01-21 Robotiq Inc. Camera for a robotic arm
CA3030734C (en) 2017-06-16 2023-01-10 Robotiq Inc. Robotic arm camera system and method
US11365068B2 (en) 2017-09-05 2022-06-21 Abb Schweiz Ag Robotic systems and methods for operating a robot
JP7199073B2 (ja) * 2017-10-20 2023-01-05 株式会社キーレックス 垂直多関節ロボットの教示データ作成システム
JP2019093529A (ja) * 2017-11-27 2019-06-20 アズビル株式会社 ポインタ装置
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US10871366B2 (en) 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10751883B2 (en) * 2018-08-16 2020-08-25 Mitutoyo Corporation Robot system with supplementary metrology position coordinates determination system
EP3755970A4 (de) * 2018-09-03 2021-11-24 ABB Schweiz AG Verfahren und vorrichtung zur verwaltung eines robotersystems
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
CN109373898B (zh) * 2018-11-27 2020-07-10 华中科技大学 一种基于三维测量点云的复杂零件位姿估计系统及方法
US11433545B2 (en) * 2019-02-17 2022-09-06 Samsung Electronics Co., Ltd. Robotic vision
CN109848994A (zh) * 2019-02-22 2019-06-07 浙江启成智能科技有限公司 一种机器人视觉引导定位算法
JP7483455B2 (ja) 2020-03-26 2024-05-15 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
CN112828878B (zh) * 2019-11-22 2022-10-25 中国科学院沈阳自动化研究所 一种大型设备对接过程三维测量与跟踪方法
JP2021091078A (ja) * 2019-12-10 2021-06-17 川崎重工業株式会社 ロボット用コントローラ
US11331799B1 (en) * 2019-12-31 2022-05-17 X Development Llc Determining final grasp pose of robot end effector after traversing to pre-grasp pose

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313225A (ja) 1995-03-16 1996-11-29 Nippondenso Co Ltd 外観検査装置
JPH11242513A (ja) 1998-02-25 1999-09-07 Fujitsu Ltd ロボットの位置決めを行うインタフェース装置
JP2008062671A (ja) 2006-09-04 2008-03-21 Toyota Motor Corp 車輪状態検出ユニット捜索システム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
DE3375107D1 (en) * 1982-10-29 1988-02-11 Toshiba Kk Control system of multi-joint arm robot apparatus
JPS61281305A (ja) * 1985-06-06 1986-12-11 Toyota Motor Corp 多関節ロボツト制御装置
US5040116A (en) * 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US4954962A (en) * 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5380978A (en) * 1991-07-12 1995-01-10 Pryor; Timothy R. Method and apparatus for assembly of car bodies and other 3-dimensional objects
GB9300403D0 (en) * 1993-01-11 1993-03-03 Huissoon Jan P Dynamic seam tracking with redundant axes control
US5394100A (en) * 1993-05-06 1995-02-28 Karl Suss America, Incorporated Probe system with automatic control of contact pressure and probe alignment
FR2710407B1 (fr) * 1993-09-20 1995-12-01 Romer Srl Procédé de repérage positionnel pour une machine de mesure tridimensionnelle et dispositif pour la mise en Óoeuvre du procédé.
JPH08123536A (ja) * 1994-10-25 1996-05-17 Fanuc Ltd 溶接トーチ姿勢の教示方法
US5903663A (en) * 1995-02-15 1999-05-11 Tiede GmbH & Co.Risprufanlagen Automatic error recognition apparatus
EP0931649A3 (de) * 1998-01-27 2000-04-26 Eastman Kodak Company Gerät und Verfahren zum Bedrucken einer profilierten Oberfläche mit komplexer Topologie
US6243621B1 (en) * 1998-03-13 2001-06-05 Fanuc Robotics North America, Inc. Method of determining workpiece positions including coordinated motion
JP2002253574A (ja) * 2001-03-01 2002-09-10 Hitachi Ltd 手術支援装置
US7768549B2 (en) * 2001-06-08 2010-08-03 Honeywell International Inc. Machine safety system with mutual exclusion zone
JP2003211382A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP3940998B2 (ja) * 2002-06-06 2007-07-04 株式会社安川電機 ロボット装置
JP2004130426A (ja) * 2002-10-09 2004-04-30 Sony Corp ロボット装置及びその動作制御方法
DE102004026813A1 (de) * 2004-06-02 2005-12-29 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten
US7307252B2 (en) * 2005-03-28 2007-12-11 Siemens Medical Solutions Usa, Inc. Detector head position correction for hybrid SPECT/CT imaging apparatus
US7177740B1 (en) * 2005-11-10 2007-02-13 Beijing University Of Aeronautics And Astronautics Method and apparatus for dynamic measuring three-dimensional parameters of tire with laser vision

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313225A (ja) 1995-03-16 1996-11-29 Nippondenso Co Ltd 外観検査装置
JPH11242513A (ja) 1998-02-25 1999-09-07 Fujitsu Ltd ロボットの位置決めを行うインタフェース装置
US6642922B1 (en) 1998-02-25 2003-11-04 Fujitsu Limited Interface apparatus for dynamic positioning and orientation of a robot through real-time parameter modifications
JP2008062671A (ja) 2006-09-04 2008-03-21 Toyota Motor Corp 車輪状態検出ユニット捜索システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018109774B4 (de) 2017-05-17 2019-06-13 Omron Corporation Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
US10805546B2 (en) 2017-05-17 2020-10-13 Omron Corporation Image processing system, image processing device, and image processing program

Also Published As

Publication number Publication date
JP4508252B2 (ja) 2010-07-21
US8406923B2 (en) 2013-03-26
JP2009214265A (ja) 2009-09-24
US20090234502A1 (en) 2009-09-17

Similar Documents

Publication Publication Date Title
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
DE102018213985B4 (de) Robotersystem
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE102007033486B4 (de) Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102015101710B4 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
EP1521211B1 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE102018129143B4 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE19618283A1 (de) Bildaufnahmevorrichtung und Verfahren für die dreidimensionale berührungsfreie Messung
EP1447770A2 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
EP1604789A2 (de) Verfahren und Vorrichtung zum Verbessern der Positioniergenauigkeit eines Handhabungsgeräts
DE102016103799A1 (de) Bildverarbeitungssystem zum Trainieren eines Montagesystems durch virtuelle Montage von Objekten
EP2019283A2 (de) Verfahren und Vorrichtung zur Vermessung von Ist-Messdaten eines Bauteils
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE102010037067B4 (de) Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters
DE102018113336A1 (de) Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
DE102016116811A1 (de) Auslenkungsmesssystem zum Messen der Auslenkung eines Gelenkroboters
EP3080551A1 (de) Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung
DE102009020307A1 (de) Simulator für eine Sichtprüfungsvorrichtung
DE102018007287A1 (de) Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
DE102007009851B3 (de) Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
EP3385916A1 (de) Messgerät und korrespondierendes messverfahren
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
DE102005040714B4 (de) Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final