-
QUERBEZUG AUF ZUGEHÖRIGE
ANMELDUNGEN
-
Die
vorliegende Anmeldung basiert auf der
japanischen Patentanmeldung 2008-062671 ,
eingereicht am 12. März 2008. Die vorliegende Anmeldung beansprucht
die Priorität der japanischen Patentanmeldung, sodass deren
Beschreibungen hier durch Bezugnahme voll umfänglich eingeführt
wird.
-
GEBIET DER ERFINDUNG
-
Die
vorliegende Erfindung betrifft Vorrichtungen zur Bestimmung einer
Aufnahmeposition eines Roboterarms mit einem Ende, an welchem eine
Kamera befestigt ist.
-
Der
Ausdruck „Aufnahmeposition” soll hier mindestens
einen der folgenden Begriffe enthalten: Eine Position eines vorbestimmten
Punktes des Roboterarms, an welchem ein Bild durch die Kamera aufgenommen
werden soll, und eine Orientierung einer vorbestimmten Bezugsachse
des Roboterarms, mit welcher ein Bild von der Kamera aufgenommen werden
soll.
-
HINTERGRUND DER ERFINDUNG
-
Visuelle
Inspektionsvorrichtungen als Beispiele von Inspektionseinrichtungen
zur visuellen Prüfung, ob Teile ordnungsgemäß an
ihren geplanten Positionen von Werkstücken zusammengebaut
sind, werden so konstruiert, dass sie eine solche visuelle Überprüfung
unter Verwendung einer Kamera ausführen, welche an einem
Ende eines Roboterarms befestigt ist. Ein Beispiel solcher visueller
Inspektionsvorrichtungen ist in der
japanischen
Patentanmeldung Nr. H08-313225 offenbart.
-
In
einer derartigen visuellen Inspektionsvorrichtung ist ein Roboterarm,
an dessen einem Ende eine Kamera befestigt ist, mit seiner Basis
beispielsweise auf dem Boden einer Räumlichkeit montiert,
in welcher die visuelle Inspektionsvorrichtung installiert ist.
-
Wenn
ein Werkstück in der Räumlichkeit an einem vorbestimmten
Prüfort angeordnet ist, dann arbeitet die visuelle Inspektionsvorrichtung
in der Weise, dass der Roboterarm bewegt wird, um hierdurch den
Roboterarm zu veranlassen, der Reihe nach Objektaufnahmepositionen
einzunehmen, in welchen ein Bild von dem Werkstück durch
die Kamera aufgenommen werden soll.
-
Die
visuelle Inspektionsvorrichtung arbeitet auch in der Weise, dass
sie ein Bild in jeder der Objektaufnahmepositionen aufnimmt, die
aufgenommenen Bilder in den jeweiligen Objektaufnahmepositionen
verarbeitet und eine visuelle Überprüfung des Werkstückes
auf der Basis des Ergebnisses der Bildverarbeitung durchführt.
-
In
der visuellen Inspektionsvorrichtung ist bezüglich der
Objektaufnahmepositionen, in denen jeweils ein Bild eines Werkstückes
von der Kamera aufgenommen werden soll, angegeben, dass diese in
einem Speicher der visuellen Inspektionsvorrichtung gespeichert
werden sollen.
-
Um
solche Objektaufnahmepositionen eines Roboterarms, an dessen einem
Ende eine Kamera befestigt ist, zu bestimmen, wird normalerweise
ein Unterrichtungsgerät verwendet. Das Unterrichtungsgerät
ist so ausgebildet, dass es von Hand zu betätigen ist und
von Ferne auf eine Steuerung des Roboterarms Zugriff nimmt, um hierdurch
die Steuerung zu veranlassen, den Roboterarm an die gewünschten Orte
zu bewegen.
-
Im
Einzelnen betätigt ein Benutzer von Hand das Unterrichtungsgerät
zur Veranlassung des Reglers den Roboterarm zu bewegen, während
Bilder eines Werkstückes, das an dem Prüfort angeordnet
ist, beobachtet werden. Diese Bilder werden der Reihe nach durch
die Kamera in verschiedenen Aufnahmepositionen aufgenommen und der
Reihe nach auf einem Wiedergabegerät dargestellt.
-
Wenn
festgestellt wird, dass ein Bild eines Werkstückes, welches
von der Kamera, die in einer Aufnahmeposition gelegen ist, aufgenommen
worden ist, ein gewünschtes Bild für die visuelle Überprüfung
des Werkstückes ist, dann betätigt der Benutzer das
Unterrichtungsgerät zur Speicherung der Aufnahmeposition
als eine Objektaufnahmeposition in dem Gerät.
-
Andererseits
offenbart das
US-Patent Nr. 6,642,922 entsprechend
der
japanischen Patentanmeldungsveröffentlichung
Nr. H11-242513 eine Technik zur Bestimmung eines Objektortes
eines Roboters in Simulationen; diese Technik wird nachfolgend als „Simulationstechnik” bezeichnet.
-
Um
die Wirksamkeit der Bestimmung des Objektortes des Roboters zu verbessern,
ist die Simulationstechnik im Einzelnen so ausgebildet, dass ein
virtuelles kugelförmiges Objekt und eine virtuelle Kamera
auf der Oberfläche des virtuellen kugelförmigen
Objektes angenommen werden.
-
Die
Simulationstechnik bewegt auch virtuell die virtuelle Kamera auf
der Oberfläche des virtuellen kugelförmigen Objektes
in den folgenden Richtungen: Der Richtung des Äquators
des virtuellen kugelförmigen Objektes, einer polaren Umlaufbahn
des virtuellen kugelförmigen Objektes und in Richtung des
Radius desselben, um hierdurch eine tangentiale Ebene darzustellen,
welche ein Ende des Roboterarms enthält, an welchem ein
End-Ausführungsorgan befestigbar ist.
-
Dies
bestimmt einfach den Objektort für das eine Ende des Roboterarms
innerhalb der Tangentialebene.
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Wie
oben beschrieben betätigt ein Benutzer von Hand ein Unterrichtungsgerät
zur Bewegung des Roboterarms unter Beobachtung der Bilder eines Werkstücks,
das an einem Prüfort angeordnet ist, um die Objektaufnahmepositionen
eines Roboterarm zu bestimmen, an dessen einem Ende eine Kamera
befestigt ist. Die genannten Bilder werden der Reihe nach von der
Kamera in verschiedenen Aufnahmepositionen aufgenommen.
-
Während
des oben beschriebenen Objektaufnahmepositions-Bestimmungsvorgangs
kann das an dem Prüfort befindliche Werkstück
außerhalb des Blickfeldes (FOV) der Kamera aufgrund eines
Fehlers sein. Dies macht eine Bewegung des Roboterarms erforderlich,
um das Werkstück wieder in das Blickfeld der Kamera zu
bekommen.
-
Nachdem
jedoch das Werkstück aus dem Blickfeld der Kamera gekommen
ist, kann die Bewegung des Roboterarmes derart, dass das Werkstück im
Blickfeld der Kamera erfasst wird, aus folgenden Gründen
schwierig sein:
Zum Ersten mag der Benutzer nicht wissen, in
welcher Orientierung das Werkstück mit Bezug auf die Kamera
gelegen ist, da kein Bild des Werkstückes auf dem Bildschirm
der Wiedergabeeinrichtung dargestellt wird.
-
Zum
Zweiten kann der Benutzer, selbst wenn er beim Bewegen des Roboterarms
mit dem Unterrichtungsgerät geübt ist, eine beträchtliche
Zeit und einen beträchtlichen Aufwand benötigen,
um das Werkstück im Blickfeld der Kamera zu erfassen. Dies beruht
darauf, dass ein dreidimensionales Koordinatensystem, welches in
dem ganzen Rotorarm definiert ist, von demjenigen Koordinatensystem
verschieden ist, welches in einem Ende des Roboters definiert ist,
an welchem die Kamera befestigt ist.
-
Das
dreidimensionale Koordinatensystem der Gesamtheit des Roboterarms
liefert drei körperliche Abmessungen des Raumes einschließlich
Länge, Breite und Höhe. Die drei Achsen, welche
das dreidimensionale Koordinatensystem definieren, stehen aufeinander
senkrecht. Das dreidimensionale Koordinatensystem der Gesamtheit
des Roboterarms sei nachfolgend als ”Roboterkoordinatensystem” bezeichnet.
-
Wenn
der Benutzer wenig Geschick bei der Bewegung des Roboterarms mit
dem Unterrichtungsgerät hat, kann es weiter für
den Benutzer ein großer Zeitaufwand und großer
Anstrengungen bedürfen, um das Werkstück im Blickfeld
der Kamera zu erfassen.
-
Um
das Werkstück, welches sich an dem Prüfort im
Blickfeld der Kamera befindet, zu erfassen, ist in Betracht gezogen,
dass solch eine visuelle Inspektionseinrichtung so ausgebildet ist,
dass die oben dargelegte Simulationstechnik angewendet wird.
-
Im
Einzelnen definiert die visuelle Inspektionseinrichtung das Zentrum
des virtuellen kugeligen Objektes als das Zentrum des Werkstückes.
Die visuelle Inspektionseinrichtung bewegt auch den Ort der Kamera
in folgenden Richtungen: in Richtung des Äquators des virtuellen
kugeligen Objektes; in Richtung des polaren Umlaufs des virtuellen
kugeligen Objektes; und in Richtung des Radius des Objektes, derart,
dass kontinuierlich das Werkstück erfasst wird, welches
an dem Prüfungsort in dem Blickfeld der Kamera gelegen
ist.
-
Wenn
die visuelle Inspektionseinrichtung die Simulationstechnik einsetzt,
um das Werkstück, welches an dem Prüfort im Blickfeld
der Kamera angeordnet ist, zu erfassen, kann es für den
Benutzer notwendig sein, in die visuelle Inspektionseinrichtung von
Hand eine Zentrumsposition des Werkstückes an einem entsprechenden
Ort in dem Roboterkoordinatensystem des Roboterarms einzugeben.
-
Die
Zentrumsposition des Werkstückes kann jedoch in die visuelle
Inspektionseinrichtung an einem entsprechenden Ort in dem Roboterkoordinatensystem
des Roboterarms nur eingegeben werden, wenn der Ort eines Ursprunges
des Rotorkoordinatensystems und die Orientierung jeder seiner Achsen bekannt
sind.
-
Es
sei angenommen, dass der Ursprung des Roboterkoordinatensystems
an den Boden der Basis gelegt wird, welche beispielsweise auf dem
Boden einer Räumlichkeit installiert ist und dass eine
Horizontalebene durch die Längsachse und Breitenachse (Richtung)
des Roboterkoordinatensystems in den Boden der Basis gelegt wird.
-
In
dieser Annahme misst ein Benutzer verhältnismäßig
einfach die Höhe des Ursprunges des Koordinatensystems
relativ zu der Höhe des Bodens der Basis und misst daher
verhältnismäßig einfach einen Koordinatenort
der Zentrumsposition des Werkstückes in der Höhenrichtung
(Höhenachse) relativ zur Höhe des Ursprungspunktes.
-
Es
kann jedoch für den Benutzer schwierig sein, Koordinatenpunkte
des Ursprungs des Roboterkoordinatensystem in der Längenrichtung
und der Breitenrichtung (Längenachse und Breitenachse)
zu erfassen. Dies beruht darauf, dass der Ursprungspunkt durch die
Basis verborgen bleibt, so dass der Benutzer nicht den tatsächlichen
Ort des Ursprungspunktes des Roboterkoordinatensystems sehen kann.
-
Zusätzlich
kann es für den Benutzer schwierig sein, die Orientierungen
der Längenrichtung und der Höhenrichtung des Ursprungs
des Roboterkoordinatensystems zu gewinnen. Dies beruht darauf, dass
die Orientierungen der Längenrichtung und der Höhenrichtung
des Ursprungs des Roboterkoordinatensystems sich von Roboterarm
zu Roboterarm verändern.
-
Aus
diesem Grunde kann es für den Benutzer schwierig sein,
von Hand die Zentrumsposition des Werkstückes als den Koordinatenort
im Roboterkoordinatensystem zu messen.
-
Angesichts
der vorstehenden Betrachtungen ist es ein Ziel eines Aspektes der
vorliegenden Erfindung, Einrichtungen zur Bestimmung einer Aufnahmeposition
eines Roboters mit einer Kamera zu schaffen. Diese Einrichtungen
sind so ausgebildet, dass ein Werkstück innerhalb eines
Blickfeldes der Kamera leicht erfasst werden kann.
-
Gemäß einem
Aspekt der vorliegenden Erfindung wird eine Einrichtung zur Bestimmung
einer Aufnahmeposition eines mit einer Kamera versehenen Roboterarmes
in einem dreidimensionalen Koordinatensystem geschaffen, wenn ein
Bild eines Werkstückes von der Kamera aufgenommen werden soll.
Das Werkstück ist auf eine Bezugsebene gesetzt. Die Einrichtung
enthält eine Eingabeeinheit, welche so ausgebildet ist,
dass eine erste Koordinate des Werkstückes auf einer ersten
Achse des dreidimensiona len Koordinatensystems eingegeben wird. Die
erste Achse ist so definiert, dass sie orthogonal zu der Bezugsebene
orientiert ist. Die Einrichtung enthält eine Koordinatengewinnungseinheit,
welche so ausgebildet ist, dass sie folgende Funktionen erfüllt:
Antreiben
des Roboters der Kamera gegenüber dem Werkstück
in der ersten Richtung derart, dass mindestens ein Teil des Werkstücks
in dem Blickfeld (FOV) der Kamera erfasst wird und
Gewinnen
zweiter und dritter Koordinaten an einem vorbestimmten Punkt des
Roboterarmes auf jeweiligen zweiten und dritten Achsen des dreidimensionalen
Koordinatensystems, wobei mindestens der Teil des Werkstücks
in dem Blickfeld der Kamera erfasst ist.
-
Die
zweiten und dritten Achsen sind orthogonal zu der ersten Achse orientiert.
Die ersten, zweiten und dritten Koordinaten sind als die Koordinaten
eines zeitweise definierten Bezugspunktes des Werkstückes
in dem dreidimensionalen Koordinatensystem festgelegt. Die Einrichtung
enthält eine Positionsbestimmungseinheit, welche so ausgebildet
ist, dass sie mit einer bestimmten Zeitvorgabe den Roboterarm bewegt,
um eine Position des vorbestimmten Punktes des Roboterarmes basierend
auf einer Lagebeziehung zwischen den ersten, zweiten und dritten
Koordinaten des zeitweise bestimmten Referenzpunktes des Werkstückes
und den tatsächlichen Koordinaten des vorbestimmten Punktes
des Roboterarmes festlegt.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
Andere
Ziele und Aspekte der Erfindung werden aus der folgenden Beschreibung
von Ausführungsbeispielen unter Bezugnahme auf die begleitenden
Zeichnungen deutlich. In den Zeichnungen stellen dar:
-
1 eine
perspektivische Ansicht, welche schematisch ein Beispiel der Hardwarekonfiguration eines
Robotersystems gemäß einer Ausführungsform
der vorliegenden Erfindung zeigt;
-
2 ein
Blockschaltbild, welches schematisch ein Beispiel der Systemkonfiguration
des Robotersystems nach 1 darstellt;
-
3 eine
perspektivische Ansicht, welche schematisch einen Flansch wiedergibt,
welcher an einem Ende eines Roboterkörpers gemäß 1 befestigt
ist, an welchen eine Kamera angeschlossen werden soll;
-
4A eine
Ansicht, welche schematisch ein ebenes Bild eines geprüften
Werkstüekes wiedergibt, welches auf dem Bildschirm einer
Wiedergabeeinrichtung dargestellt wird, gemäß der
vorliegenden Ausführungsform;
-
4B eine
Abbildung, welche schematisch ein Fenster auf dem Bildschirm der
Wiedergabeeinrichtung zeigt, in welchem dreidimensionale graphische
Modelle des Robotersystems und graphische Benutzer-Schnittstellenabschnitte
dargestellt werden;
-
5 ein
Flussdiagramm, welches schematisch eine Vorbereitungsroutine zeigt,
welche von einer Steuerung gemäß der vorliegenden
Ausführungsform ausgeführt wird;
-
6 eine
Abbildung, welche schematisch einen ausgewählten Punkt
in dem ebenen Bild des geprüften Werkstückes,
welches auf dem Bildschirm der Wiedergabeeinrichtung gemäß der
vorliegenden Ausführungsform gezeigt wird, darstellt;
-
7 ein
Flussdiagramm, welches schematisch eine temporäre Zentrumsaufnahmeroutine
darstellt, welche von der Steuerung gemäß der
vorliegenden Ausführungsform durchzuführen ist;
-
8 ein
Flussdiagramm, welches schematisch eine zweite Vorbereitungsroutine
zeigt, welche von der Steuerung gemäß einer ersten
Abwandlung der vorliegenden Ausführungsform auszuführen
ist;
-
9A eine
Abbildung, welche schematisch ein Beispiel einer Mehrzahl von spezifischen
Punkten nahe am Umriss des ebenen Bildes zeigt, welches auf dem
Bildschirm der Wiedergabeeinrichtung gemäß der
ersten Abwandlung dargestellt wird;
-
9B eine
Abbildung, welche schematisch ein anderes Beispiel einer Anzahl
von spezifischen Punkten nahe an dem Umriss des ebenen Bildes zeigt,
welches auf dem Schirm der Wiedergabeeinrichtung gemäß der
ersten Abwandlung dargestellt wird;
-
9C eine
Abbildung, welche schematisch ein weiteres Beispiel einer Mehrzahl
von spezifischen Punkten nahe an dem Umriss des ebenen Bildes zeigt,
welches auf dem Bildschirm der Wiedergabeeinrichtung der ersten
Abwandlung dargestellt wird;
-
10 eine
Abbildung, welche schematisch ein ebenes Bild eines geprüften
Werkstücks mit einer Form zeigt, auf welcher zwei ausgewählte
Punkte gemäß einer zweiten Modifikation der vorliegenden Ausführungsform
wiedergegeben sind;
-
11 eine
Abbildung, welche schematisch ein ebenes Bild eines geprüften
Werkstückes in einer anderen Gestalt zeigt, auf welcher
zwei ausgewählte Punkte gemäß der zweiten
Modifikation der vorliegenden Ausführungsform dargestellt
sind;
-
12 ein
Flussdiagramm, welches schematisch eine dritte Vorbereitungsroutine
verdeutlicht, welche durch die Steuerung gemäß der
zweiten Modifikation der vorliegenden Ausführungsform ausgeführt
werden soll;
-
13 ein
Flussdiagramm, welches schematisch eine Bezugspunkt-Aufnahmeroutine
verdeutlicht, welche danach durch die Steuerung gemäß der
zweiten Modifikation der vorliegenden Ausführungsform auszuführen
ist;
-
14 ein
Flussdiagramm, welches schematisch eine vierte Vorbereitungsroutine
verdeutlicht, welche durch die Steuerung gemäß einer
dritten Modifikation der vorliegenden Ausführungsform ausgeführt
werden soll; und
-
15 eine
Abbildung, welche schematisch ein ebenes Bild eines geprüften
Werkstückes darstellt, auf welchem eine Mehrzahl ausgewählter Punkte
gemäß der dritten Modifikation der vorliegenden
Ausführungsform wiedergegeben ist.
-
DETAILLIERTE BESCHREIBUNG
VON AUSFÜHRUNGSBEISPIELEN DER ERFINDUNG
-
Eine
Ausführungsform der vorliegenden Erfindung wird nachfolgend
unter Bezugnahme auf die 1 bis 15 beschrieben.
In der Ausführungsform wird die vorliegende Erfindung auf
ein Robotersystem RS angewendet. Beispielsweise dient das Robotersystem
RS einer visuellen Inspektionseinrichtung zum visuellen Prüfen,
ob Teile ordnungsgemäß in ihren richtigen Positionen
der zusammengebauten Werkstücke 19 während
des Endprozesses einer Montagelinie der Werkstücke 19 zusammengebaut
worden sind.
-
Es
sei auf 1 Bezug genommen. Das Robotersystem
RS ist vorzugsweise mit einem Roboterkörper 1,
einer Steuerung 2, welche elektrisch über ein
Kabel damit verbunden ist und zur Steuerung des Roboterkörpers 1 ausgebildet
ist, einem Unterrichtungsanhang 3, der elektrisch über
ein Kabel mit der Steuerung 2 verbunden ist und einer Wiedergabeeinrichtung 4 ausgerüstet,
die über ein Kabel elektrisch mit der Steuerung 2 verbunden
ist.
-
Der
Unterrichtungsanhang 3 ist mit einem handbetätigbaren
Teil, beispielsweise einer Tastatur 3a und einer Wiedergabeeinrichtung,
beispielsweise einem LCD-Display 3b, ausgerüstet.
Manuelle Operationen des Benutzers an dem handbetätigbaren Teil 3a gestatten
es, vielerlei Instruktionen für die Steuerung 2 an
dem Unterrichtungsanhang 3 einzugeben. Die Wiedergabeeinrichtung 3b dient
zur Darstellung verschiedener Informationsgegenstände.
-
Der
Roboterkörper 1 ist beispielsweise als gegliederter
Roboterkörper ausgebildet.
-
Der
Roboterkörper 1 besteht aus einer im wesentlichen
zylindrischen Basis 5, welche auf einer horizontalen Installationsfläche,
beispielsweise der flachen Oberfläche eines im Wesentlichen
rechteckigen Fundamentes D befestigt ist, das mit seiner flachen
Unterseite gegenüberliegend der flachen Oberseite auf dem
Boden F einer Räumlichkeit installiert ist, in welcher
das Robotersystem RS aufgebaut ist (siehe 4B).
-
Der
Roboterkörper 1 besteht aus einer im Wesentlichen
zylindrischen Schulterverbindung 6, welche an der Basis 5 so
befestigt ist, dass die Mittelachse der Schulterverbindung 6 senkrecht
zur Mittelachse der Basis 5 verläuft.
-
Die
Schulterverbindung 6 ist so ausgebildet, dass sie auf der
Basis 5 horizontal um die Mittenachse (Bewegungsachse)
der Basis 5 verdrehbar ist. Im Einzelnen dient die Basis 5 als
eine Drehverbindung zur Abstützung der Schulterverbindung 6 und
verdreht diese um die Mittenachse der Basis. Die Basis 5 wird
nachfolgend auch als ”Basisverwendung” bezeichnet.
-
Der
Roboterkörper 1 hat ein Paar von Oberarmen (Oberarmverbindungen) 7.
Ein Ende des Paares der Oberarme 7 ist jeweils schwenkbar
durch die beiden Enden der Schulterverbindung 6 um die
Mittenachse (Bewegungsachse) der Schulterverbindung in senkrechter
Richtung parallel zur Mittenachse der Basis 5 abgestützt.
Im Einzelnen ist die Schulterverbindung 6 so ausgebildet,
dass sie die Oberarme 7 abstützt und sie um die
Mittelachse der Schulterverbindung verdrehen kann.
-
Der
Roboterkörper 1 weist eine im Wesentlichen zylindrische
Armverbindung 7a auf, die an die jeweils anderen Enden
des Paares von Oberarmen 7 angeschlossen ist, um vertikal
um die Mittenachse (Bewegungsachse) der Armverbindung in vertikaler Richtung
verschwenkt zu werden.
-
Der
Roboterkörper 1 weist ferner einen im Wesentlichen
quaderförmigen ersten Unterarm 8a auf, der an
seiner einen Hauptseite an einer äußeren Umfangsfläche
der Armverbindung 7a befestigt ist, um zusammen mit der
Armverbindung 7a um deren Mittenachse in Vertikalrichtung
verschwenkbar zu sein. Im Einzelnen ist die Armverbindung 7a so
ausgebildet, dass sie den ersten Unterarm 8a abstützt und
ihn um ihre Mittenachse verschwenkt.
-
Des
Weiteren weist der Roboterkörper 1 einen zweiten
Unterarm 8b auf, der von dem ersten Unterarm 8a wegragt
und von ihm um eine Mittenachse des ersten Unterarmes 8a entsprechend
einer Bewegungsachse drehbar abgestützt ist. Im Einzelnen
dient der erste Unterarm 8a als eine Verbindung zur Abstützung
des zweiten Unterarmes 8b und zu dessen Verdrehung um die
Mittenachse des ersten Unterarmes.
-
Das äußere
Ende des zweiten Unterarmes 8b ist gegabelt. Der erste
Unterarm 8a und der zweite Unterarm 8b bilden
eine Unterarmverbindung 8.
-
Außerdem
enthält der Roboterkörper 1 eine im Wesentlichen
zylindrische Handgelenkverbindung 9, die zwischen die gegabelten
Enden des zweiten Unterarmes 8b eingesetzt und von innen
um die Mittenachse der Handgelenkverbindung (Bewegungsachse) in
Vertikalrichtung entsprechend der Richtung der Mittenachse der Basis 5 verschwenkbar
abgestützt ist.
-
Die
Handgelenkverbindung 9 ist mit einem im Wesentlichen ringförmigen
Flansch 10 versehen, welcher von ihr wegsteht. Die Handgelenkverbindung 9 ist
so ausgebildet, dass sie den Flansch 10 abstützt
und ihn um ihre Mittenachse verschwenken kann.
-
Der
Flansch 10 ist so ausgebildet, dass er um seine Mittenachse
(Bewegungsachse) in der Richtung, in welcher er vorsteht, verdrehbar
ist.
-
Der
Roboterkörper 1 enthält eine Kamera 11, welche
an einer vorderen Endfläche des Flansches 10 befestigt
ist. Die Kamera 11 hat beispielsweise eine einzige Linse
mit fester Brennweite und einen Fotodetektor mit einer Pixelfäche
(einer Abbildungsfläche), und ist so angeordnet, dass eine
optische Achse L der Linse der Kamera 11 auf die Mittenachse des
Flansches 10 ausgerichtet ist (siehe 1).
Ein Blickfeld (FOV) der Kamera 11 ist beispielsweise auf der
Basis der Größe und einer Brennweite der Linse und
der Größe der Pixelfläche des Fotodetektors
der Kamera 11 festgelegt.
-
Der
Roboterkörper 1 enthält eine Anzahl von Servomotoren
(M) 17 als Betätigungsantriebe (siehe 2).
Auch enthält der Roboterkörper 1 eine
Anzahl von Drehmeldern (E) 18, welche beispielsweise an
der Welle eines entsprechenden Servomotoren 17 (siehe 2)
jeweils befestigt sind.
-
Im
Einzelnen ist die Basis (Basisverbindung) 5 mit einem Servomotor 17 und
einem Rotationsübertragungssystem (nicht gezeigt) zusammengebaut,
welches die Drehbewegung des Servomotors 17 auf die Schulterverbindung 6 überträgt,
um diese zu verdrehen.
-
Die
Schulterverbindung 6 ist mit einem Servomotor 17 und
einem Rotationsübertragungssystem (nicht dargestellt) zusammengebaut,
welches die Drehung des Servomotors 17 auf die Oberarme 7 überträgt,
um diese zusammen vertikal zu verschwenken.
-
Die
Armverbindung 7a ist mit einem Servomotor 17 und
einem Drehübertragungssystem (nicht dargestellt) zusammengebaut,
welches die Drehung des Servomotors 17 auf den ersten Unterarm 8a überträgt,
um ihm vertikal zu verschwenken.
-
Der
erste Unterarm (Armverbindung) 8a ist mit einem Servomotor 17 und
einem Drehübertragungssystem (nicht dargestellt) zusammengebaut, welches
die Drehung des Servomotors 17 auf den zweiten Unterarm 8b überträgt,
um diesen um seine Mittenachse zu verdrehen.
-
Die
Handgelenkverbindung 9 ist mit einem Servomotor 17 und
einem Drehübertragungssystem (nicht dargestellt) zusammengebaut,
welches die Drehung des Servomotors 17 auf die Handgelenkverbindung überträgt,
um diese zusammen mit dem Flansch 10 in Vertikalrichtung
zu verschwenken.
-
Der
Flansch 10 ist mit einem Servomotor 17 und einem
Drehübertragungssystem (nicht gezeigt) zusammengebaut,
welches die Drehung des Servomotors 17 auf den Flansch überträgt,
so dass dieser sich zusammen mit der Kamera 11 um seine
Mittenachse verdreht.
-
Im
einzelnen dienen die Basisverbindung 5, die Schulterverbindung 6,
die Oberarmverbindung 7a, die Unterarmverbindung 8a,
die Handgelenkverbindung 9 und der Flansch 10 des
Roboterkörpers 1 als Verbindungen (verbundene
Mechanismen) der Teile, die so mit entsprechenden Verbindungsorganen
des Roboterkörpers 1 gekoppelt und ausgebildet sind,
dass ihnen eine Beweglichkeit verliehen wird.
-
Wie
in 2 dargestellt, enthält die Steuerung 2 eine
CPU 12, Treiberschaltungen 13 zum Betrieb der
Servomotoren 17, eine Detektierungsschaltung 14,
einen ROM-Speicher (Lesespeicher), beispielsweise einen wiederbeschreibbaren,
nicht flüchtigen Speicher 15 und einen RAM-Speicher
(Speicher wahlfreien Zugriffs) 16. Die Elemente 13 bis 16 sind
elektrisch mit der CPU 12 verbunden.
-
In
dem ROM-Speicher 15 sind beispielsweise Systemprogramme
gespeichert, welche die CPU 12 dazu veranlassen, die Systemeinrichtungen
des Robotersystems RS zu steuern. Der RAM-Speicher 16 enthält
beispielsweise Bewegungsprogramme des Roboterkörpers 1 gespeichert.
Mit der CPU 12 sind der Unterrichtungsansatz 3,
die Wiedergabeeinrichtung 4 und die Kamera 11 elektrisch
verbunden. Man beachte, dass wie in 2 gezeigt,
die Basisverbindung 5, die Schulterverbindung 6,
die Oberarmverbindung 7a, die Unterarmverbindung 8a,
die Handgelenkverbindung 9 und der Flansch 10 des
Roboterkörpers 1 kollektiv als „Verbindung” in
einem Blocksymbol bezeichnet sind.
-
Die
Servomotoren 17 zum Antrieb der Verbindungen 5, 6, 7a, 8a, 9 und 10 sind
kollektiv als ein Blocksymbol mit der Bezugszahl 17 bezeichnet,
wie in 2 gezeigt ist. In entsprechender Weise sind die
Drehmelder 18 kollektiv als ein Blocksymbol mit der Bezugszahl 18 in 2 dargestellt.
-
Die
Detektierungsschaltung 14 ist in der Weise wirksam, dass
sie eine tatsächliche Position und eine tatsächliche
Winkelgeschwindigkeit jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 feststellt.
-
Jeder
der Drehmelder 18 dient beispielsweise als Positionssensor.
Im einzelnen ist jeder der Drehmelder 18 so ausgebildet,
dass er Digitalimpulse ausgibt, welche der Winkelbewegung (Drehung) der
Welle eines entsprechenden der Servomotoren 17 abgibt.
Das Impulssignal, welches aus einer Folge von digitalen Impulsen
besteht, wird an die Detektierungsschaltung 14 geliefert.
-
Basierend
auf den Impulssignalen, welche von den Drehmeldern 18 ausgehen,
kann die Detektierungsschaltung 14 folgendes feststellen:
Einen
tatsächlichen Drehwinkel (Winkelstellung) der Schulterverbindung 6 relativ
zu der Basisverbindung 5;
einen tatsächlichen
Drehwinkel (Winkelstellung) des Oberarmes 7 relativ zu
der Schulterverbindung 6;
einen tatsächlichen
Drehwinkel (Winkelstellung) der Unterarmverbindung 8 relativ
zu dem Oberarm 7;
einen tatsächlichen Drehwinkel
(Winkelstellung) der Handgelenkverbindung 9 relativ zu
dem zweiten Unterarm 8b; und
einen tatsächlichen
Drehwinkel (Winkelstellung) des Flansches 10 relativ zu
der Handgelenkverbindung 9.
-
Zusätzlich
ist die Detektierungsschaltung 14 in der Weise wirksam,
dass sie:
die Anzahl von Impulsen in dem Impulssignal zählt, welches
von jedem der Drehmelder 18 je Zeiteinheit eingegeben wird;
und
auf der Basis des gezählten Ergebnisses die tatsächliche
Winkelgeschwindigkeit jedes der Servomotoren 17 bestimmt,
mit anderen Worten, die tatsächliche Winkelgeschwindigkeit
jeder der Verbindungen 5, 6 7a, 8a, 9 und 10.
-
Die
Detektierungsschaltung 14 ist auch in der Weise wirksam,
dass sie der CPU 12 Informationen liefert, welche den tatsächlichen
Drehwinkel und die tatsächliche Drehgeschwindigkeit jeder
der Verbindungen 5, 6, 7a, 8a, 9 und 10 angeben.
-
Man
beachte, dass in jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 ein
dreidimensionales Koordinatensystem definiert ist. Das dreidimensionale Koordinatensystem,
das in der Basisverbindung 5 definiert ist, ist ein stillstehendes
dreidimensionales Koordinatensystem, welches durch das Bezugszeichen ”S” in 1 bezeichnet
ist. Das stillstehende dreidimensionale Koordinatensystem sei nachfolgend
als ”Roboterkoordinatensystem” bezeichnet.
-
Das
dreidimensionale Koordinatensystem, welches jeweils in jeder der
verbleibenden Verbindungen 6, 7a, 8a, 9 und 10 definiert
ist, verändert sich abhängig von der Drehung jeder
der Verbindungen 5, 6, 7a, 8a, 9 und 10.
-
Das
Roboterkoordinatensystem S hat einen Ursprungspunkt P, welcher an
einem Punkt am Boden der Basisverbindung 5 gelegen ist,
durch welchen die Mittenachse der Basisverbindung 5 hindurchgeht.
Eine Z-Achse ”Z” wird als körperliche
Abmessung der Höhe des Roboterkoordinatensystems S auf
der Mittenachse der Basis 5 durch den Ursprungspunkt P
definiert. Diese Z-Achse ist orthogonal zu dem Boden der Basisverbindung 5 orientiert und
verläuft koaxial zur Mittenachse der Basisverbindung 5.
-
Eine
X-Y-Ebene, welche durch eine X-Achse und eine Y-Achse aufgespannt
wird, wird in einer Horizontalebene definiert, welche den Boden
der Basisverbindung 5 enthält und orthogonal zu
der Z-Achse ist. Sowohl die X-Achse als auch die Y-Achse geht durch
den Ursprungspunkt P und die Richtung der X-Achse und der Y-Achse,
welche senkrecht zur X-Achse ist, werden frei in der Horizontalebene,
beispielsweise im Planungszustand des Roboterkörpers 1 bei
einem Hersteller desselben festgelegt.
-
Es
ist zu beachten, dass die Information, welche die Dimensionen jeder
der Verbindungen 5, 6, 7a, 8a, 9 und 10,
beispielsweise deren Länge in der entsprechenden Längsrichtung
oder entsprechend der Axialrichtung, zuvor beispielsweise in dem ROM-Speicher 15 der
Steuerung 2 gespeichert werden.
-
Die
CPU 12 der Steuerung 2 ist in der Weise wirksam,
dass sie eine Rückkopplungssteuerung der Bewegung jeder
der Verbindungen 5, 6, 7a, 8a, 9 und 10 in
Entsprechung mit den Roboterbewegungsprogrammen durchführt,
welche in dem RAM-Speicher 16 basierend auf den Informationen
des Speichers gespeichert sind, welche von der Detektierungsschaltung 14 gegeben
werden und welche in dem ROM-Speicher 15 gespeichert sind.
Diese Rückkopplungssteuerung ermöglicht eine Aufnahmeposition
der Kamera 11 derart, dass sie in Übereinstimmung
mit einer gewünschten Objektaufnahmeposition ist.
-
Im
Einzelnen ist die CPU 12 in der Weise wirksam, dass sie
folgendes durchführt:
Empfangen des tatsächlichen
Drehwinkels jeder der Verbindungen 6, 7a, 8a, 9 und 10 und
der Information, welche die Länge jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 in
Entsprechung mit der Längsrichtung oder in Entsprechung
mit der Axialrichtung anzeigt; und Umwandeln einer Position jeder
der Verbindungen 6, 7a, 8a, 9 und 10 in
einem entsprechenden der dreidimensionalen Koordinatensysteme in eine
Position jeder der Verbindungen 6, 7a, 8a, 9 und 10 in
dem Roboterkoordinatensystem S.
-
Es
ist zu beachten, dass eine Position einer Verbindung in einem entsprechenden
dreidimensionalen Koordinatensystem eine Position der Verbindung
in dem entsprechenden dreidimensionalen Koordinatensystem und eine
Orientierung der Mittenachse der Verbindung darin umfasst.
-
Bezug
nehmend auf 3 ist anzumerken, dass das dreidimensionale
Koordinatensystem, welches in dem Flansch 10 definiert
ist, einen Ursprungspunkt PO besitzt, der in dem Zentrum der vordersten
Endfläche des Flansches 10 gelegen ist. Die X-Achse
Xf, die Y-Achse Yf und die Z-Achse Zf des dreidimensionalen Koordinatensystems,
welches in dem Flansch 10 definiert ist, werden frei bestimmt,
so lange die folgenden Bedingungen erfüllt sind:
Irgendwelche
zwei Achsen der X-, Y- und Z-Achsen Xf, Yf und Zf des in dem Flansch 10 definierten
dreidimensionalen Koordinatensystems werden in der vordersten Endfläche
des Flansches 10 festgelegt; und
die verbleibende
eine Achse der X-, Y- und Z-Achsen Xf, Yf und Zf des in dem Flansch 10 definierten
dreidimensionalen Koordinatensystems wird so festgelegt, dass sie
koaxial mit der Mittenachse des Flansches 10 ist. Diese
Mittenachse steht senkrecht zu der vordersten Endfläche
des Flansches 10.
-
Im
Einzelnen werden in der vorliegenden Ausführungsform die
X- und Y-Achsen Xf und Yf in der vordersten Endfläche des
Flansches 10 so festgelegt, dass ihre positiven Richtungen
so, wie in 3 gezeigt, orientiert sind.
Die verbleibende Z-Achse Zf wird so festgelegt, dass sie koaxial
zu der Mittenachse des Flansches 10 ist, so dass die positive
Richtung so, wie in 3 gezeigt, orientiert ist.
-
Eine
Stellung (Position und Orientierung) des Roboterkörper 1,
bedeutend eine Stellung (Position und Orientierung) des Flansches 10,
wird folgendermaßen dargestellt.
-
Im
Einzelnen wird eine Position des Flansches 10 als eine
Position in dem Roboterkoordinatensystem S repräsentiert,
welchen der Ursprungspunkt PO des von dem Flansch 10 definierten
dreidimensionalen Koordinatensystems einnimmt.
-
Eine
Orientierung des Flansches 10 wird durch einen Annäherungsvektor
A und einen Orientierungsvektor O repräsentiert.
-
Der
Annäherungsvektor A hat eine Einheitslänge von ”1” und
weist von dem Ursprungspunkt PO in der negativen Richtung der Z-Achse
Zf weg.
-
Der
Orientierungsvektor hat eine Länge von ”1” und
ragt von dem Ursprungspunkt PO in der positiven Richtung der Y-Achse
Yf weg.
-
Im
Einzelnen wird eine Orientierung des Flansches 10 durch
einen Annäherungsvektor A und einen Orientierungsvektor
O in dem Roboterkoordinatensystem S repräsentiert, wenn
das in dem Flansch 10 definierte dreidimensionale Koordinatensystem
derart übersetzt wird, dass der Ursprungspunkt PO in Übereinstimmung
mit dem Ursprungspunkt P des Roboterkoordinatensystems S ist.
-
In
der vorliegenden Ausführungsform enthält die ”Aufnahmeposition” eine
Position des Ursprungspunktes PO des Flansches 10, an welcher
ein Bild von der Kamera 11 aufgenommen werden soll, sowie eine
Orientierung eines Bezugsvektors, der durch den Annäherungsvektor
A und den Orientierungsvektor O definiert ist, an welchen ein Bild
durch die Kamera 11 aufgenommen werden soll.
-
Wie
oben beschrieben ist das Robotersystem RS beispielsweise für
eine visuelle Inspektionseinrichtung eingesetzt.
-
Die
visuelle Inspektionseinrichtung mit dem Robotersystem RS arbeitet
in der Weise, dass sie der Reihe nach die Kamera 11 in
Objektaufnahmeposition bringt, in denen jeweils ein Bild eines zusammengebauten
Werkstückes während des endgültigen Prozesses
der Montagelinie des zusammengebauten Werkstücks 19 (siehe 4A)
aufgenommen werden soll.
-
Während
des Endprozesses der Montagelinie werden die zusammengebauten Werkstücke 19 der
Reihe nach zu dem voreingestellten Prüfort auf einer flachen
Montagefläche auf einem Montagetisch T angeordnet, der
auf dem Boden F installiert ist, so dass jedwedes der zusammengebauten
Werkstücke 19 auf den voreingestellten Prüfort
gesetzt wird (siehe 4B). Ein zusammengebautes Werkstück 19, das
auf den voreingestellten Prüfort gesetzt ist, wird nachfolgend
als ”geprüftes Werkstück 19” bezeichnet.
-
Die
visuelle Inspektionseinrichtung arbeitet auch in der Weise, dass
sie der Reihe nach ein Bild des geprüften Werkstücks 19 in
der jeweiligen Objektaufnahmeposition aufnimmt und visuell überprüft, basierend
auf den aufgenommenen Bildern, um festzustellen, ob Teile ordnungsgemäß in
ihren richtigen Positionen an dem geprüften Werkstück 19 befestigt sind.
-
Die
Kamera 11 ist an der vordersten Endfläche des
Flansches 10 des Roboterkörpers 1 montiert,
so dass die optische Achse L der Kamera 11 koaxial zu der
Z-Achse Zf des dreidimensionalen Koordinatensystems ist, welches
in dem Flansch 10 definiert ist; der Annäherungsvektor
A ist in der Z-Achse Zf definiert.
-
In
der vorliegenden Ausführungsform gestattet die Manipulation
des Roboterkörpers 1 entsprechend den manuellen
Operationen, welche durch den Unterrichtungszusatz 3 vorgegeben
werden, die Bestimmung der Objektaufnahmepositionen und ihrer Speicherung
in der Steuerung 2.
-
Im
Einzelnen betätigt bei der vorliegenden Ausführungsform
ein Benutzer von Hand den Unterrichtungszusatz 3, um dadurch
erste Instruktionen an die Steuerung 2 zu liefern.
-
Die
ersten Instruktionen veranlassen die Steuerung 2 zu Folgendem:
Bewegen
des Roboterkörpers 1 um das geprüfte Werkstück 19 herum
während einer Änderung der Stellung des Roboterkörpers 1;
Aufnahme
eines Bildes durch die Kamera 11; und
Darstellen des
Bildes auf der Wiedergabeeinrichtung 4.
-
Wenn
ein gewünschter Prüfpunkt des geprüften
Werkstückes 19 in dem Blickfeld FOV der Kamera 11 in
einer Position des Flansches 10 enthalten ist, so dass
der Punkt auf der Wiedergabeeinrichtung 4 dargestellt werden
kann, bestimmt der Benutzer, dass die Stellung des Flansches 10 eine
Objektaufnahmeposition ist. Der Benutzer betätigt also
den Unterrichtungszusatz 3, um hierdurch zweite Instruktionen
an die Steuerung 2 zu senden.
-
Die
zweiten Instruktionen veranlassen die Steuerung 2 zur Speicherung
der Stellung des Flansches 10 als eine Objektaufnahmestellung,
beispielsweise in dem RAM-Speicher 16.
-
Diese
Operationen werden wiederholt durchgeführt. Wenn sämtliche
Objektaufnahmestellungen entsprechend sämtlichen gewünschten
Prüfungspunkten des geprüften Werkstückes 19 in
dem RAM-Speicher gespeichert sind, dann ist die Festlegung der Objektaufnahmestellungen
der Kamera 11 beendet.
-
Danach
ist bei der tatsächlichen Prüfung des geprüften
Werkstückes 19 die Steuerung 2 in folgender
Weise wirksam:
Antreiben des Roboterkörpers 1 zur
Positionierung desselben in jeder der Objektaufnahmestellungen;
Aufnehmen
eines Bildes des geprüften Werkstückes 19 durch
die Kamera 11 in jeder der Objektaufnahmepositionen; und
Verarbeiten
der aufgenommenen Bilder, um hierdurch festzustellen, ob Teile ordnungsgemäß an
ihren geplanten Positionen des geprüften Werkstückes 19 angeordnet
sind, basierend auf dem Ergebnis der Verarbeitung.
-
Während
der Festlegungsroutine der Objektaufnahmestellungen ist es, wenn
das geprüfte Werkstück 19 sich außerhalb
des Blickfeldes FOV der Kamera 11 befindet, schwierig,
die Festlegungsroutine der verbleibenden Objektaufnahmestellungen
fortzusetzen. Es ist daher notwendig, das geprüfte Werkstück 19 wieder
in dem Blickfeld FOV der Kamera 11 zu erfassen.
-
Das
Robotersystem RS gemäß der vorliegenden Ausführungsform
ist derart ausgebildet, dass einfache Manipulationen des Roboterkörpers 1 es
ermöglichen, das geprüfte Werkstück 19 im
Blickfeld FOV der Kamera 11 wieder zu erfassen, selbst
wenn sich das geprüfte Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 befindet.
-
Im
Einzelnen arbeitet bei der vorliegenden Ausführungsform
die Steuerung 2 in Zusammenwirkung mit dem Unterrichtungszusatz 3 und
der Wiedergabeeinrichtung 4 zusammen, um hierdurch eine Vorbereitungsroutine
vor der Festlegungsroutine durchzuführen.
-
Die
Vorbereitungsroutine ist so ausgebildet, dass sie zeitweilig einen
Bezugspunkt definiert, beispielsweise ein Zentrum (Schwerpunkt)
des geprüften Werkstückes 19, und Koordinaten
des zeitweilig definierten Bezugspunktes des geprüften
Werkstückes 19 in dem Roboterkoordinatensystem
S bestimmt.
-
Die
in dem ROM-Speicher 15 gespeicherten Systemprogramme enthalten
ein GUI-Programm (Graphical User Interface Software Module), welches dem
Benutzer gestattet, den Roboterkörper 1 über graphische
Elemente zu manipulieren, die auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt sind.
-
Im
Einzelnen veranlasst, wenn die Vorbereitungsroutine beispielsweise
in Abhängigkeit von Instruktionen durchgeführt
wird, welche von dem Unterrichtungszusatz 3 gesendet werden,
das GUI-Programm die Steuerung 2, dazu Folgendes darzustellen:
Jeweilige
dreidimensionale graphische Modelle 1M, DM, 19M, TM und FM des Roboterkörpers 1,
des Fundamentes D, des Werkstückes 19, des Befestigungstisches
T und des Bodens F, beispielsweise im unteren rechten Eck des Bildschirms
der Wiedergabeeinrichtung 4 in Form eines Fensters W;
Dialogfenster
DL1, DL2 und DL3, in welchen numerische Information eintragbar ist;
und
ein anklickbares Blickfeld IC zur Eingabe einer Instruktion
entsprechend dem Bildfeld IC in die Steuerung 2 beim Anklicken
(siehe 4A und 4B).
-
Wenn
ein Benutzer den Unterrichtungszusatz 3 betätigt,
um in die Steuerung 2 eine Instruktion zur Darstellung
eines Cursors (Zeigers) als Hinweis einzugeben, dann stellt die
Steuerung 2 einen Cursor auf dem Bildschirm der Wiedergabeeinrichtung
dar. Die manuelle Betätigung des Unterrichtungszusatzes 3 durch
den Benutzer ermöglicht es der Steuerung 2, eine
neue Position auf dem Bildschirm zu wählen und diese anzuklicken
um hierdurch einen Befehl entsprechend der angeklickten Position
auszuwählen.
-
Die
Steuerung 2 arbeitet in der Weise, dass sie den Roboterkörper 1 in
Entsprechung mit der manuellen Betätigung des Unterrichtungszusatzes 3 durch
den Benutzer bewegt, während das dreidimensionale graphische
Modell 1M entsprechend dem Roboterkörper 1 zusammen
hiermit bewegt wird.
-
Es
sein nun auf 4B Bezug genommen. Das Dialogfeld
DL1 repräsentiert ein Dialogfeld, in welchem eine X-Koordinate
des zeitweilig definierten Referenzpunktes des geprüften
Werkstückes 19 dargestellt werden kann, und das
Dialogfeld DL2 reprä sentiert ein Dialogfeld, in welchem
eine Y-Koordinate des zeitweilig definierten Referenzpunktes des
geprüften Werkstückes 19 dargestellt
werden kann.
-
Das
Dialogfeld DL3 repräsentiert ein anklickbares Dialogfeld,
in welchem die Differenz zwischen der Höhe des zeitweilig
definierten Referenzpunktes des geprüften Werkstückes 19 und
der Höhe des Fundamentes D in der Z-Achsenrichtung des
Roboterkoordinatensystems S eingegeben werden kann.
-
Das
anklickbare Bildfeld IC ist mit „zum Werkstück” beschriftet.
Das anklickbare Bildfeld IC dient zur Instruktion der Steuerung 2,
eine Bezugspunkt-Aufnahmeroutine durchzuführen, welche
in 7 angegeben und nachfolgend beschrieben ist, wenn
das Bildfeld angeklickt wird.
-
Nunmehr
seien die Vorbereitungsroutine und die manuellen Operationen in
Zusammenhang damit entsprechend der vorliegenden Ausführungsform
beschrieben.
-
Wenn
ein Benutzer die Vorbereitungsroutine auszuführen wünscht,
dann setzt der Benutzer ein zusammengebautes Werkstück 19,
welches geprüft werden soll, auf die flache Befestigungsoberfläche des
Befestigungstisches T, um es an den vorbestimmten Prüfort
als geprüftes Werkstück 19 (siehe 4B)
zu bringen, was in dem Schritt S1 von 5 geschieht.
-
Darauf
misst der Benutzer die Höhe H eines bestimmten Punktes
G des geprüften Werkstücks 19 von dem
Boden F aus, sowie die Höhe h des Ursprungs des Roboterkoordinatensystems
S von dem Boden F aus, was in dem Schritt S2 geschieht.
-
Der
gegebene Punkt G des geprüften Werkstückes 19 kann
an die Oberseite des geprüften Werkstückes 19,
an den Boden des geprüften Werkstückes 19 oder
in der Mitte des geprüften Werkstückes 19 zwischen
der Oberseite und der Unterseite des Werkstückes gewählt
werden. Nimmt man an, dass die Kamera 11 so angeordnet
ist, dass sie auf den gegebenen Punkt G des geprüften Werkstückes 19 von
der Oberseite des geprüften Werkstückes 19, wie
nachfolgend beschrieben, gerichtet ist, dann ist der gegebene Punkt
G vorzugsweise an einer tieferen Seite des geprüften Werkstückes 19 und
besonders vorzugsweise am Boden des geprüften Werkstückes 19 gewählt.
Dies beruht darauf, dass ein größerer Abstand
zwischen der Kamera 11 und dem gegebenen Punkt G es ermöglicht,
dass das geprüfte Werkstück 19 leichter
in dem Blickfeld FOV der Kamera 11 erfasst werden kann.
-
Nach
dem Einsetzen des geprüften Werkstückes 19 betätigt
der Benutzer den Unterrichtungszusatz 3, um eine Moduseinstellinstruktion
an die CPU 12 zu senden. Basierend auf der Moduseinstellinstruktion,
welche an die CPU 12 gesendet wird, stellt diese ihren
Arbeitsmodus in dem Schritt S3 in einen Vorbereitungsmodus.
-
In
dem Vorbereitungsmodus stellt die CPU 12 ein von der Kamera 11 aufgenommenes
Bild auf dem Bildschirm der Wiedergabeeinrichtung 4 dar. Darauf
stellt die CPU 12 in der rechten unteren Ecke des Bildschirms
der Wiedergabeeinrichtung 4 das Fenster W dar, in welchem
die jeweiligen dreidimensionalen grafischen Modelle 1M, DM, 19M,
TM und FM des Roboterkörpers 1, des Fundamentes
D, des Werkstückes 19, des Befestigungstisches
T und des Bodens F dargestellt sind.
-
In
dem Vorbereitungsmodus stellt die CPU 12 den Roboterkörper 1 so
ein, dass er für die Bewegung entsprechend der Handbetätigung
des Unterrichtungszusatzes 3 bereit ist, und stellt das
dreidimensionale grafische Modell 1M des Roboterkörpers 1 so
ein, dass es für die Bewegung bereit ist, welche der Bewegung
des Roboterkörpers 1 folgt.
-
In
dem Bereitschaftszustand bewegt die CPU 12 entsprechend
den Befehlen, welche durch die Betätigung des Unterrichtungszusatzes 3 von diesem übertragen
werden, den Roboterkörper 1, während
eine Stellung des Roboterkörpers 1 geändert
wird, nimmt der Reihe nach ein Bild durch die Kamera 11 auf
und stellt der Reihe nach die aufgenommenen Bilder auf dem Bildschirm
der Wiedergabeeinrichtung 4 dar, was in dem Schritt S4
(siehe 4A) geschieht.
-
Während
er die auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellten
Bilder beobachtet, betätigt der Benutzer den Unterrichtungszusatz 3 zur
Veranlassung der CPU 12, den Roboterkörper 1 so
zu bewegen, dass die Kamera 11 oberhalb des geprüften
Werkstückes 19 angeordnet wird, wobei mindestens
ein Teil des geprüften Werkstückes 19 vom
Blickfeld FOV der Kamera 11 erfasst wird, was im Schritt
S4 geschieht.
-
In
dem Schritt S4 betätigt der Benutzer, während
er die auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellten
Bilder beobachtet, den Unterrichtungszusatz 3 zur Veranlassung
der CPU 12, dass sie die Höhe der Kamera 11 in
der Z-Richtung und ihre horizontale Position in der X-Y-Ebene des Roboterkoordinatensystems
S einstellt. Diese Einstellung ermöglicht es, dass die
Gesamtheit des geprüften Werkstückes 19 von
dem Blickfeld FOV der Kamera 11 in dem Schritt S4 erfasst
wird.
-
Dies
hat zur Folge, dass ein ebenes Bild IP des geprüften Werkstückes 19,
wie es von seiner Oberseite her gesehen wird, in jedem der aufgenommenen
Bilder, welche auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt
werden, erscheint (siehe 6).
-
Danach
betätigt der Benutzer den Unterrichtungszusatz 3 derart,
dass der Cursor im wesentlichen auf eine Mitte des ebenen Bildes
IP des geprüften Werkstückes 19 als gewünschter
Punkt auf dem ebenen Bild IP bewegt wird und er klickt den Cursor in
dem Schritt S5 auf dem gewünschten Punkt an.
-
Dies
instruiert die CPU 12 zur Auswahl eines wesentlichen Mittenpunktes
C auf der ebenen Darstellung des tatsächlich geprüften
Werkstückes 19 von seiner Oberseite aus gesehen.
Dies veranlasst die CPU 12 außerdem zur Darstellung
des gewählten Punktes C in der ebenen Darstellung des tatsächlich geprüften
Werkstückes 19 als ein Punkt C in dem ebenen Bild
IP (siehe 6). Der gewählte Punkt kann
auf dem ebenen Bild IP nicht dargestellt werden.
-
Darauffolgend
betätigt der Benutzer unter Beobachtung des ebenen Bildes
IP, dass auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird,
den Unterrich tungszusatz 3 derart, dass in dem Schritt
S6 eine Instruktion an die CPU 12 geschickt wird.
-
Die
Instruktion veranlasst die CPU 12 zur Bewegung des Roboterkörpers 1 in
der X-Y-Ebene des Roboterkoordinatensystems derart, dass ein wesentlicher
Mittelpunkt des Blickfeldes FOV der Kamera 11 im wesentlichen
in Übereinstimmung mit dem gewählten Punkt C auf
der ebenen Wiedergabe des tatsächlichen geprüften
Werkstückes 19 ist, was in Schritt S6 geschieht.
-
Mit
anderen Worten, die Instruktion veranlasst im Schritt S6 die CPU 12 dazu,
die Kamera 11 oberhalb des gewählten Punktes C
derart anzuordnen, dass die optische Achse der Kamera 11 durch den
gewählten Punkt C geht.
-
Es
sei beispielsweise angenommen, dass jedes der aufgenommenen Bilder
auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt
wird, wie in 6 durch das Bezugszeichen „FI” gezeigt
ist. Bei dieser Annahme ermöglicht der Betrieb der CPU 12 in
dem Schritt S6, dass der gewählte Punkt C, der auf dem
ebenen Bild IP dargestellt wird, auf das Zentrum jedes der aufgenommen
Bilder FI ausgerichtet ist, mit anderen Worten, auf das Zentrum
des Blickfeldes FOV der Kamera 11. Somit bestimmt die CPU 12 in einfacher
Weise, dass die Kamera 11 oberhalb des gewählten
Punktes C in der ebenen Darstellung des tatsächlichen geprüften
Werkstückes 19 gelegen ist.
-
Man
beachte, dass der Benutzer tatsächlich die stellungsmäßige
Beziehung zwischen der Kamera 11 und einem wesentlichen
Zentrum des geprüften Werkstückes 19 beobachten
kann, um hierbei festzustellen, dass die Kamera 11 sich
oberhalb des gewählten Punktes C in der ebenen Wiedergabe
des geprüften Werkstückes 19 befindet.
-
Nach
Ausrichtung zwischen dem gewählten Punkt C in der ebenen
Darstellung des geprüften Werkstückes 19 und
dem Zentrum des Blickfeldes FOV der Kamera 11 betätigt
der Benutzer den Unterrichtungszusatz 3 zur Veranlassung
der CPU 12 zu folgendem:
Gewinnen der Stellung (Position
und Orientierung) des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S für den gewählten
Punkt C basierend auf der Information, welche den tatsächlichen
Drehwinkel jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt;
und
Speichern der Stellungsdaten in dem RAM-Speicher 16,
welche die Stellung des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S anzeigen, in dem Schritt S7.
-
In
dem Schritt S7 gewinnt die CPU 12 als die Position des
Flansches 10 die X-Achsen-, Y-Achsen- und Z-Achsen- Koordinaten
(Xw, Yw und Zp) einer Position in dem Roboterkoordinatensystem S,
an welcher der Ursprungspunkt PO des dreidimensionalen Koordinatensystems
gelegen ist, welches durch den Flansch 10 definiert ist.
-
Zusätzlich
gewinnt in dem Schritt S7 die CPU 12 als die Orientierung
des Flansches 10 den Bezugsvektor, welcher durch den Annäherungsvektor
A und den Orientierungsvektor O in dem Roboterkoordinatensystem
S definiert ist.
-
Dann
speichert die CPU 12 als die Stellungsdaten die gewonnene
Stellung (gewonnene Position und gewonnene Orientierung) des Flansches 10 des Roboterkörpers 1 in
dem Schritt S7 in dem RAM-Speicher 16.
-
Hierauf
speichert die CPU 12 in dem RAM-Speicher 16 die
X- und Y-Achsenkoordinaten Xw und Yw in der X-Y-Ebene im Roboterkoordinatensystem
S, was in dem Schritt S8 geschieht. Man beachte, dass in dem Schritt
S8 die CPU 12 die X- und Y-Achsenkoordinaten Xw und Yw
in den Dialogfeldern DL1 beziehungsweise DL2 darstellen kann (siehe 4B).
-
Darauffolgend
betätigt der Benutzer in dem Schritt S9 den Unterrichtungszusatz 3 zur
Eingabe der Differenz der gemessenen Höhe H des geprüften Werkstückes 19 und
der gemessenen Höhe h des Ursprungs des Roboterkoordinatensystem
S gemäß Schritt S2 unter Verwendung des dreidimensionalen grafischen
Modells 1M, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargstellt
wird, in die CPU 12.
-
Im
Einzelnen betätigt der Benutzer den Unterrichtungszusatz 3 zur
Eingabe der Differenz in das Dialogfeld DL3 und klickt das Dialogfeld
DL3 an.
-
Das
Anklicken des Dialogfeldes DL3 veranlasst die Steuerung 2 zu
folgendem:
Ablesen der eingegeben Differenz „H-h” im
Dialogfeld DL3;
Umwandeln der eingegebenen Differenz „H-h” in
die Höhe Zw in der Z-Richtung des Roboterkoordinatensystems
S; und
Speichern der Höhe Zw in der Z-Richtung des
Roboterkoordinatensystems S in den RAM-Speicher 16 im Schritt
S9.
-
Somit
bestimmt die CPU 12 die X-, Y- und Z-Achsenkoordinaten
(Xw, Yw und Zw), welche in dem RAM-Speicher 16 gespeichert
sind, als die X-, Y- und Z-Achsenkoordinaten eines zeitweilig definierten
Bezugspunktes des geprüften Werkstückes 19 in dem
Roboterkoordinatensystem S im Schritt S10, wodurch die Vorbereitungsroutine
beendet ist.
-
Nach
Bestimmung der Koordinatenposition des zeitweilig definierten Bezugspunktes
des geprüften Werkstückes 19 im Roboterkoordinatensystem
S führt der Benutzer die Festlegung der Objektaufnahmestellungen
durch.
-
Im
Einzelnen betätigt der Benutzer den Unterrichtungszusatz 3 zur
Instruktion der Steuerung 2 zu folgendem:
Bewegen
des Roboterkörpers 1 um das geprüfte Werkstück 19 herum
während einer Änderung der Stellung des Roboterkörpers 1;
Aufnahme
eines Bildes durch die Kamera 11; und
Darstellung
des Bildes auf der Wiedergabeeinrichtung 4.
-
Wenn
ein gewünschter Prüfpunkt des geprüften
Werkstückes 19 in dem Blickfeld FOV der Kamera 11 in
einer Stellung des Flansches 10 derart enthalten ist, dass
er auf dem Wiedergabegerät 4 dargstellt werden
kann, bestimmt der Benutzer, dass die Stellung des Flansches 10 eine
Objektaufnahmestellung ist. Der Benutzer betätigt also
den Unterrichtungszusatz 3 in der Weise, dass er die Steuerung 2 anweist,
die Objektaufnahmestellung beispielsweise in dem RAM-Speicher 16 zu
speichern.
-
Diese
Vorgänge werden wiederholt durchgeführt. Wenn
sämtliche Objektaufnahmestellungen entsprechend sämtlichen
gewünschten Prüfpunkten an dem geprüften
Werkstück 19 in dem RAM-Speicher 16 gespeichert
sind, ist die Festlegung der Objektaufnahmestellungen der Kamera 11 beendet.
-
Während
der Festlegungsroutine der Objektaufnahmestellungen kann das Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 sein.
-
In
diesem Falle betätigt der Benutzer den Unterrichtungszusatz 3 zur
Durchführung eine vorbestimmten Operation, beispielsweise
durch Anklicken des anklickbaren Bildfeldes IC, welches in dem Fenster
W des Bildschirms der Wiedergabeeinrichtung 4 dargstellt
ist. Dies veranlasst die CPU 12 der Steuerung 2 zur
Einstellung ihres Operationsmodus auf einen Bezugspunkt-Aufnahmemodus.
-
In
dem Bezugspunkt-Aufnahmemodus führt die CPU 12 eine
Bezugspunkt-Aufnahmeroutine durch, welche in 7 dargestellt
ist. Die Bezugspunkt-Aufnahmeroutine steuert die Bewegung des Roboterkörpers 1,
um hierdurch die Orientierung der optischen Achse der Kamera 11 derart
zu korrigieren, dass das geprüfte Werkstück 19 im
Blickfeld FOV der Kamera 11 erfasst wird und dass der Brennpunkt
der Linse der Kamera 11 automatisch auf das geprüfte Werkstück 19 eingestellt
wird.
-
Wenn
die CPU 12 ihren Betriebsmodus auf den Bezugspunkt-Aufnahmemodus
in dem Schritt A1 stellt, dann führt die CPU 12 den
Schritt A2 aus.
-
In
dem Schritt A2 gewinnt die CPU 12 basierend auf der Information,
welche den tatsächlichen Drehwinkel jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt,
eine tatsächliche Stellung (Position und Orientierung)
des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S.
-
Als
nächstes gewinnt die CPU 12 die Koordinatenposition
des zeitweilig definierten Bezugspunktes des geprüften
Werkstückes 19 von dem RAM-Speicher 16 in
dem Schritt A2. Dann treibt in dem Schritt A2 die CPU 12 den
Roboterkörper 1 derart an, dass die optische Achse
der Kamera 11 auf eine Linie ausgerichtet wird, welche
die tatsächliche Position des Flansches 10 und
die Koordinatenposition des zeitweilig definierten Bezugspunktes
des geprüften Werkstückes 19 verbindet.
-
Mit
anderen Worten treibt in dem Schritt A2 die CPU 12 den
Roboterkörper 1 derart an, dass die Kamera 11 in
Richtung auf den zeitweilig definierten Bezugspunkt des geprüften
Werkstückes 19 orientiert wird.
-
Darauffolgend
treibt die CPU 12 den Roboterkörper 1 derart
an, dass die Kamera 11 sich von dem geprüften
Werkstück 19 in Richtung der optischen Achse wegbewegt,
was in dem Schritt A3 geschieht.
-
Während
der Bewegung der Kamera 11 in dem Schritt A3 führt
die CPU 12 wiederholt eine normale Analyse der aufgenommenen
Bilder zur Fokussierungsfestlegung in dem Schritt A4 durch, um hierdurch
festzustellen, ob die Linse der Kamera 11 ordnungsgemäß auf
das geprüfte Werkstück 11 fokussiert
ist, was in dem Schritt A5 geschieht.
-
Während
der wiederholten Durchführung der Operationen in den Schritten
A4 und A5 stoppt die CPU 12 nach Feststellung, dass die
Linse der Kamera 11 ordnungsgemäß auf
das Werkstück 11 fokussiert ist (JA in Schritt
A5) die Bewegung des Roboterkörpers 1 in dem Schritt
A10 und beendet die Bezugspunkt-Aufnahmeroutine.
-
Während
der Bewegung der Kamera 11 in dem Schritt A3 bestimmt die
CPU 12 nach der Feststellung in dem Schritt 5 im
negativen Sinne, ob die Verlagerung der Kamera 11 gleich
oder größer als eine Brennweite der Linse der
Kamera 11 ist, was im Schritt A6 geschieht.
-
Nach
Feststellung, dass die Verschiebung der Kamera 11 gleich
oder größer als die Brennweite der Linse der Kamera 11 ist
(JA im Schritt A6) stellt die CPU 12 fest, dass eine weitere
Bewegung der Kamera 11 weg vom geprüften Werkstück 19 in
Richtung der optischen Achse die Linse der Kamera 11 nicht
ordnungsgemäß auf das geprüfte Werkstück 19 fokussieren
kann.
-
Nach
Feststellung, dass die Verschiebung der Kamera 11 gleich
oder größer als die Brennweite der Linse der Kamera 11 ist
(JA im Schritt A6) fährt also die Kamera 12 im
Schritt A7 fort. In dem Schritt A7 stoppt die CPU 12 die
Bewegung der Kamera 11 weg von dem geprüften Werkstück 19 in
Richtung der optischen Achse und bewegt die Kamera 11 nahe
an das geprüfte Werkstück 19 heran in
Richtung der optischen Achse.
-
Während
der Bewegung der Kamera 11 in dem Schritt A7 führt
die CPU 12 wiederholt eine normale Analyse der aufgenommenen
Bilder zur Fokussierungsfestlegung in dem Schritt A aus, um hierdurch
festzustellen, ob die Linse der Kamera 11 ordnungsgemäß auf
das geprüfte Werkstück 11 fokussiert
ist, was im Schritt A9 geschieht.
-
Während
der wiederholten Durchführung der Operationen in den Schritten
A8 und A9 stoppt die CPU 12 nach der Feststellung, dass
die Linse der Kamera 11 ordnungsgemäß auf
das geprüfte Werkstück 19 fokussiert
ist (JA im Schritt A9) die Bewegung des Roboterkörpers 1 in
dem Schritt A10 und beendet die Bezugspunkt-Aufnahmeroutine.
-
Die
Vollendung der Bezugspunkt-Aufnahmeroutine gestattet es, dass das
Werkstück 19 von dem Blickfeld FOV der Kamera 11 wieder
erfasst wird. Dann kehrt die CPU 12 zu der Festlegungsroutine der
Objektaufnahmestellungen zurück.
-
Im
Einzelnen klickt ein Benutzer, selbst wenn das geprüfte
Werkstück 19 sich während der Durchführung
der Festlegungsroutine der Objektaufnahmestellungen sich außerhalb
des Blickfeldes FOV der Kamera 11 befindet, lediglich das
anklickbare Bildfeld IC an, um hierdurch die CPU 12 der
Steuerung 2 zu veranlassen, ihren Betriebsmodus in den Bezugspunkt-Aufnahmemodus
zu stellen. Dies ermöglicht, dass das geprüfte
Werkstück 19 wieder in dem Blickfeld FOV der Kamera 11 erfasst
wird.
-
Es
ist demgemäß möglich, das geprüfte Werkstück 19 leicht
wieder in dem Blickfeld FOV der Kamera 11 mit geringem
Zeit- und Arbeitsaufwand eines Benutzers zu erfassen, selbst wenn
sich das geprüfte Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 befindet.
-
Die
Vorbereitungsroutine gemäß der vorliegenden Ausführungsform
ist so ausgebildet, dass ein zeitweilig definierter Bezugspunkt
des geprüften Werkstückes 19 bestimmt
wird, um Situationen zu berücksichtigen, in welchen sich
das geprüfte Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 befindet. Die Vorbereitungsroutine,
wie sie oben beschrieben wurde, wird nachfolgend auch als ”erste Vorbereitungsroutine” bezeichnet.
-
Als
erste, zweite und dritte Modifikation der vorliegenden Ausführungsform
können die folgenden zweiten, dritten und vierten Vorbereitungsroutinen, welche
von der ersten Vorbereitungsroutine verschieden sind, verwendet
werden, um Situationen zu berücksichtigen, in denen sich
das geprüfte Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 befindet.
-
Nunmehr
seien die zweite Vorbereitungsroutine und die damit verbundenen
manuellen Operationen gemäß der ersten Modifikation
der vorliegenden Ausführungsform unter Bezugnahme auf die 8 und 9A bis 9C beschrieben.
Die zweite Vorbereitungsroutine ist folgendermaßen ausgebildet:
Gewinnen
einer Anzahl von gewünschten Positionen des Flansches 10 über
dem geprüften Werkstück 19 in dem Roboterkoordinatensystem
S; und
Bestimmen eines wesentlichen Zentrums einer Figur, welche
durch Verbinden der Mehrzahl von gewünschten Positionen
des Flansches 10 gebildet wird, als zeitweise definierter
Bezugspunkt des geprüften Werkstückes 19.
-
Im
Einzelnen führen, wenn ein Benutzer die zweite Vorbereitungsroutine
durchzuführen wünscht, der Benutzer und/oder die
CPU 12 die Operationen in den Schritten B1 bis B4 durch,
welche identisch mit denjenigen in den Schritten S1 bis S4 von 5 sind.
-
Danach
betätigt der Benutzer den Unterrichtungszusatz 3 zur
Bewegung des Cursors an eine Anzahl von Punkten nahe an der Außenlinie
des ebenen Bildes IP, beispielsweise an die vier Punkte E1, E2,
E3 und E4, welche in 9A dargestellt sind, und klickt
mit dem Cursor an jedem der genannten Punkte E1 bis E4 in dem Schritt
B5 an.
-
Dies
veranlasst die CPU 12 zur Auswahl von vier Punkten E1 bis
E4 nahe an der Außenlinie einer ebenen Darstellung des
tatsächlichen geprüften Werkstückes 19 bei
Ansicht von dessen Oberseite her. Dies veranlasst die CPU 12 auch
zur Darstellung der gewählten vier Punkte E1 bis E4 nahe
an der Außenlinie der ebenen Darstellung des tatsächlichen geprüften
Werkstückes 19 als Punkte E1 bis E4 auf dem Bildschirm
der Wiedergabeeinrichtung 4 (siehe 9A). Man
beachte, dass die besonderen Punkte E1 und E2 näher an
dem Roboterkörper 1 gelegen sind als die besonderen
Punkte E3 und E4.
-
Während
das ebene Bild IP, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird,
beobachtet wird, betätigt der Benutzer den Unterrichtungszusatz 3 zur
Veranlassung der CPU 12 dazu, den Roboterkörper 1 in
der X-Y-Ebene des Roboterkoordinatensystems S so zu bewegen, dass das
wesentliche Zentrum des Blickfeldes FOV der Kamera 11 im
Wesentlichen in Übereinstimmung mit jedem der Punkte E1
bis E4 ist, was im Schritt B6 geschieht.
-
Nach
Ausrichtung zwischen jedem der gewählten Punkte E1 bis
E4 einerseits und der Mitte des Blickfeldes FOV der Kamera 11 andererseits
betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung
der CPU 12 zu folgendem:
Gewinnen der Stellung (Position
und Orientierung) des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S für jeden der gewählten Punkte
E1 bis E4 basierend auf der Information, welche den tatsächlichen
Drehwinkel und die tatsächliche Drehgeschwindigkeit jeder
der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt;
und
Speichern der Stellungsdaten, welche die Stellung des Flansches 10 des
Roboterkörpers 1 in dem Roboterkoordinatensystem
S für jeden der gewählten Punkte E1 bis E4 anzeigen,
in dem Schritt B7 in dem RAM-Speicher 16.
-
Im
Einzelnen gewinnt im Schritt B7 die CPU 12 als die Position
des Flansches 10 für jeden der gewählten
Punkte E1 bis E4 die X-Achsen-, Y-Achsen- und Z-Achsen-Koordinaten
(Xwn, Ywn und Zpn) zu einer Position in dem Roboterkoordinatensystem
S, an welcher der Ursprungspunkt PO des dreidimensionalen Koordinatensystems
gelegen ist, welches durch den Flansch 10 definiert ist.
-
Zusätzlich
gewinnt in dem Schritt B7 die CPU 12 als die Orientierung
des Flansches 10 für jeden der gewählten
Punkte E1 bis E4 den Bezugsvektor, welcher durch den Annäherungsvektor
A und dem Orientierungsvektor O definiert ist, in dem Roboterkoordinatensystem
S.
-
Dann
speichert die CPU 12 als die Stellungsdaten die gewonnene
Stellung (gewonnene Position und gewonnene Orientierung) des Flansches 10 des Roboterkörpers 1 für
jeden der gewählten Punkte E1 bis E4 in dem RAM-Speicher 16 im
Schritt B7.
-
Hierauf
gewinnt die CPU 12 eine Figur, die durch Verbinden der
Koordinatenpositionen des Flansches 10 für die
jeweiligen gewählten Punkte E1 bis E4 gebildet wird, im
Schritt B8. Dann errechnet die CPU 12 ein wesentliches
Zentrum der erhaltenen Figur und stellt die X-Achsen- und Y-Achsen-Koordinaten
des errechneten Zentrums der erhaltenen Figur in der X-Y-Ebene des
Roboterkoordinatensystems S als X- und Y-Achsen-Koordinaten (Xwn,
Ywn) des zeitweilig definierten Bezugspunktes des geprüften
Werkstückes 19 im Schritt B9 ein.
-
Beispielsweise
stellt in dem Schritt B9 die CPU 12 eine vertikale Linie
der erhaltenen Figur ein; diese vertikale Linie teilt horizontal
die erhaltene Figur in zwei Teile mit jeweils gleicher Fläche,
und stellt eine horizontale Linie in der erhaltenen Figur ein; diese
horizontale Linie teilt vertikal die erhaltene Figur in zwei Teile
mit jeweils gleicher Fläche. Die CPU 12 bestimmt
einen Schnittpunkt der vertikalen und der horizontalen Linie als
das wesentliche Zentrum der erhaltenen Figur.
-
Der
Benutzer und die CPU 12 führen die Operationen
in dem Schritt B10 entsprechend denjenigen im Schritt S9 aus, so
dass eine Höhe Zwn in der Z-Richtung des Roboterkoordinatensystems
S in dem RAM-Speicher 16 gespeichert wird.
-
Die
CPU 12 bestimmt also die X-, Y- und Z-Achsen-Koordinaten
(Xwn, Ywn und Zwn), welche in dem RAM-Speicher 16 gespeichert
sind, als die X-, Y- und Z-Achsen-Koordinaten des zeitweilig definierten
Bezugspunktes des geprüften Werkstückes 19 in dem
Roboterkoordinatensystem S im Schritt B11, womit die zweite Vorbereitungsroutine
beendet wird.
-
Man
beachte, dass, wie in 9A dargestellt ist, die vier
Punkte E1, E2, E3 und E4 außerhalb der Außenlinie
des ebenen Bildes IP gelegen sind, doch können sie auch
innerhalb der Außenlinie des Bildes gelegen sein (siehe 9B).
Anderenfalls können auch einige der vier Punkte E1, E2,
E3 und E4 außerhalb der Außenlinie des ebenen
Bildes IP gelegen sein und die übrigen Punkte können
innerhalb der Außenlinie des Bildes gelegen sein (siehe 9C).
-
Nunmehr
seien die dritte Vorbereitungsroutine und die damit verbundenen
manuellen Operationen gemäß der zweiten Modifikation
der vorliegenden Ausführungsform nachfolgend unter Bezugnahme
auf die 10 bis 13 beschrieben.
Die dritte Vorberei tungsroutine ist so ausgebildet, dass sie eine Anzahl
von partiellen Zentrumspunkten einer ebenen Darstellung des tatsächlichen
geprüften Werkstückes 19 auswählt.
Die dritte Vorbereitungsroutine kann vorzugsweise bei Werkstücken
großer Abmessungen und Werkstücken mit jeweils
unterschiedlich gestalteten Bereichen angewendet werden.
-
Im
einzelnen führen, wenn ein Benutzer die dritte Vorbereitungsroutine
ausführen will, der Benutzer und/oder die CPU 12 die
Operationen in den Schritten C1 bis C4 durch, welche identisch mit
denjenigen in den Schritten S1 bis S4 gemäß 5 sind. Danach
betätigt der Benutzer den Unterrichtungszusatz 3 zur
Bewegung des Cursors an eine Anzahl von gewünschten Punkten
in dem ebenen Bild IP, beispielsweise zu den zwei Punkten C1 und
C2, welche in 10 oder 11 angegeben
sind, und klickt mit dem Cursor jeden der besonderen Punkte C1 und
C2 an.
-
Dies
veranlasst die CPU 12 dazu, zwei Punkte C1 und C2 in der
ebenen Darstellung des tatsächlichen geprüften
Werkstückes 19, wie sie von dessen Oberseite gesehen
wird, auszuwählen. Auch veranlasst dies die CPU 12 zur
Darstellung der ausgewählten beiden Punkte C1 und C2 in
der ebenen Darstellung des tatsächlichen geprüften
Werkstückes 19 als die Punkte C1 und C2 auf dem
Bildschirm der Wiedergabeeinrichtung 4 (siehe 10 oder 11).
-
Als
nächstes betätigt der Benutzer, während er
das ebene Bild IP, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt
wird, beobachtet, den Unterrichtungszusatz 3 zur Veranlassung
der CPU 12 zur Bewegung des Roboterkörpers 1 in
der X-Y-Ebene des Roboterkoordinatensystems derart, dass die wesentliche
Mitte des Blickfeldes FOV der Kamera 11 im Wesentlichen
in Übereinstimmung mit jedem der Punkte C1 und C2 in der
ebenen Darstellung des tatsächlichen geprüften
Werkstücks 19 ist, was in dem Schritt C6 geschieht.
-
Nach
Ausrichtung zwischen jedem der gewählten Punkte C1 und
C2 in der ebenen Darstellung des tatsächlichen geprüften
Werkstückes 19 und dem Zentrum des Blickfeldes
FOV der Kamera 11 betätigt der Benutzer den Unterrichtungszusatz 3 zur Veranlassung
der CPU 12 zu folgendem:
Gewinnen der Stellung (Position
und Orientierung) des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S für jeden der ausgewählten
Punkte C1 und C2 basierend auf der Information, welche den tatsächlichen
Drehwinkel und die tatsächliche Winkelgeschwindigkeit jeder
der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt;
und
Speichern der Stellungsdaten im RAM-Speicher 16, welche
die Stellung des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S für jeden der gewählten
Punkte C1 und C2 anzeigen, im Schritt C7.
-
Im
Einzelnen gewinnt in dem Schritt C7 die CPU 12 als die
Position des Flansches 10 für jeden der gewählten
Punkte C1 und C2 die X-Achsen, Y-Achsen- und Z-Achsen-Koordinaten
(Xwn, Ywn und Zpn) einer Position in dem Roboterkoordinatensystem
S, welchen der Ursprungspunkt PO des dreidimensionalen Koordinatensystems
einnimmt, das von dem Flansch 10 definiert wird.
-
Zusätzlich
gewinnt die CPU 12 in dem Schritt C7 als die Orientierung
des Flansches 10 für jeden der gewählten
Punkte C1 und C2 den Bezugsvektor, welcher durch den Annäherungsvektor
A und den Orientierungsvektor O im Roboterkoordinatensystem S definiert
ist.
-
Dann
speichert die CPU 12 als die Stellungsdaten die erhaltene
Stellung (erhaltene Position und erhaltene Orientierung) des Flansches 10 des
Roboterkörpers 1 für jeden der gewählten
Punkte C1 und C2 im RAM-Speicher 16 in dem Schritt C7.
-
Als
nächstes gewinnt die CPU 12 als die Position des
Flansches 10 für die gewählten Punkte
C1 und C2 die X-Achsen-, Y-Achsen- und Z-Achsen-Koordinaten (Xwn,
Ywn und Zpn) einer Position in dem Roboterkoordinatensystem S, an
welcher der Ursprungspunkt PO des dreidimensionalen Koordinatensystems
liegt, welcher in dem Flansch 10 definiert ist.
-
Der
Benutzer und die CPU 12 führen in dem Schritt
C9 die Operationen entsprechend denjenigen in dem Schritt S9 aus,
so dass eine Höhe Zwn in der Z-Richtung des Robotersystems
RS in dem RAM-Speicher 16 gespeichert wird.
-
Die
CPU 12 bestimmt daher die X-, Y- und Z-Achsen-Koordinaten
(Xwn, Ywn und Zwn) für jeden der gewählten Punkte
C1 und C2, welche in dem RAM-Speicher 16 gespeichert sind,
als die X-, Y- und Z-Achsen-Koordinaten eines entsprechenden der zeitweise
definierten Bezugspunkte des geprüften Werkstückes 19 in
dem Roboterkoordinatensystem S in dem Schritt B10, womit die dritte
Vorbereitungsroutine beendet wird.
-
Nach
dem Bestimmen der Koordinatenposition für jeden der zeitweise
definierten Bezugspunkte des geprüften Werkstückes 19 in
dem Roboterkoordinatensystem S führt der Benutzer die Bestimmungsroutine
für die Objektaufnahmestellungen in der oben angegebenen
Weise durch.
-
Während
der Bestimmungsroutine für die Objektaufnahmestellungen
kann sich das geprüfte Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 befinden.
-
In
diesem Falle betätigt der Benutzer den Unterrichtungszusatz 3 und
klickt das anklickbare Bildfeld IC an, welches in dem Fenster W
auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird.
Dies veranlasst die CPU 12 der Steuerung 2 zur Einstellung
ihres Betriebsmodus auf den Bezugspunkt-Aufnahmemodus.
-
In
dem Bezugspunkt-Aufnahmemodus führt die CPU 12 eine
Bezugspunkt-Aufnahmeroutine durch, welche in 13 dargestellt
ist.
-
Wenn
die CPU 12 ihren Betriebsmodus auf den Bezugspunkt-Aufnahmemodus
in dem Schritt D1 stellt, schreitet die CPU 12 zu dem Schritt
D2 fort.
-
In
dem Schritt D2 gewinnt die CPU 12 basierend auf der Information,
welche den tatsächlichen Drehwinkel jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt,
eine tatsächliche Stellung (Position und Orientierung)
des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S.
-
Als
nächstes wählt die CPU 12 in dem Schritt D2
einen der zeitweise definierten Bezugspunkte des geprüften
Werkstückes 19 aus; dieser eine der zeitweise
definierten Bezugspunkte des geprüften Werkstückes 19 liegt
näher an der tatsächlichen Position des Flansches 10 des
Roboterkörpers 1 als der andere.
-
Dann
gewinnt in dem Schritt D3 die CPU 12 die Koordinatenposition
des ausgewählten der zeitweise definierten Bezugspunkte
des geprüften Werkstücks 19 aus dem RAM-Speicher 16.
In dem Schritt D3 treibt die CPU 12 den Roboterkörper 1 derart
an, dass die optische Achse der Kamera 11 auf eine Linie ausgerichtet
ist, welche die tatsächliche Position des Flansches 10 und
die Koordinatenposition des ausgewählten der zeitweise
definierten Bezugspunkte des geprüften Werkstückes 19 verbindet.
-
Danach
führt die CPU 12 in den Schritten D4 bis D11 die
Operationen durch, welche denjenigen in den Schritten A3 bis A10
nach 7 entsprechen.
-
Die
Vervollständigung der Aufnahmeroutine der zeitweise definierten
Bezugspunkte ermöglicht, dass das geprüfte Werkstück 19 wieder
in dem Blickfeld FOV der Kamera 11 erfasst wird. Dann kehrt
die CPU 12 zu der Festlegungsroutine der Objektaufnahmestellungen
zurück.
-
Im
Einzelnen klickt ein Benutzer, selbst wenn das geprüfte
Werkstück 19 sich außerhalb des Blickfeldes
FOV der Kamera 11 während der Durchführung
der Festigungsroutine der Objektaufnahmestellungen befindet, lediglich
das anklickbare Bildfeld IC an, um hierdurch die CPU 12 der
Steuerung 2 zu veranlassen, ihren Betriebsmodus auf den
Bezugspunkt-Aufnahmemodus zu stellen. Dies ermöglicht, dass
das geprüfte Werkstück 19 wieder von
dem Blickfeld FOV der Kamera 11 erfasst wird.
-
Es
ist somit in einfacher Weise möglich, das geprüfte
Werkstück 19 wieder in dem Blickfeld FOV der Kamera 11 mit
geringem zeitlichen Aufwand und Arbeitsauf wand eines Benutzers zu
erfassen, selbst wenn sich das geprüfte Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 befindet.
-
Wenn
sich das geprüfte Werkstück 19 außerhalb
des Blickfeldes FOV der Kamera 11 befindet, dann bewegen
zusätzlich die CPU 12 und der Benutzer den Roboterkörper 1 in
Richtung auf einen der zeitweise definierten Bezugspunkte des geprüften Werkstückes 19,
welcher näher an der tatsächlichen Position des
Flansches 10 des Roboterkörpers 1 liegt als
der andere der Punkte.
-
Dies
ermöglicht es, die Verlagerung des Roboterkörpers 1 für
das Wiedererfassen des geprüften Werkstückes 19 im
Blickfeld FOV der Kamera 11 zu reduzieren.
-
Nun
sei die vierte Vorbereitungsroutine mit den damit verbundenen manuellen
Vorgängen gemäß der dritten Modifikation
der vorliegenden Ausführungsform nachfolgend unter Bezugnahme
auf die 14 und 15 beschrieben.
Die dritte Vorbereitungsroutine ist so ausgebildet, dass eine Anzahl von
partiellen Zentrumspunkten einer ebenen Darstellung des tatsächlichen
geprüften Werkstückes 19 ausgewählt
wird; jeder der Anzahl der partiellen Zentrumspunkten ist ein wesentlicher
Mittelpunkt einer Figur, welche durch Verbinden einer Anzahl gewünschter
Positionen des Flansches 10 gebildet wird.
-
Im
Einzelnen führen, wenn ein Benutzer die vierte Vorbereitungsroutine
ausführen will, der Benutzer und/oder die CPU 12 die
Operationen in den Schritten E1 bis E4 durch, welche identisch denjenigen
in den Schritten S1 bis S4 nach 5 sind.
-
Danach
betätigt der Benutzer den Unterrichtungszusatz 3 zur
Bewegung des Cursors an eine Anzahl von Punkten nahe an der Umrisslinie
des ebenen Bildes IP, beispielsweise acht Punkte E1 bis E8 welche
in 15 gezeigt sind. Man beachte, dass die besonderen
Punkte E1, E2, E5 und E6 näher an dem Roboterkörper 1 liegen
als die besonderen Punkte E3, E4, E7 und E8.
-
Der
Benutzer betätigt den Unterrichtungszusatz 3 auch
zum Anklicken des Cursors auf jedem der besonderen Punkte E1, E2,
E3 und E4; diese besonderen Punkte E1 bis E4 bilden eine erste Gruppe.
-
Dies
veranlasst die CPU 12 zur Auswahl einer ersten Gruppe von
vier Punkten E1 bis E4 nahe an der Umrisslinie einer ebenen Darstellung
des tatsächlichen geprüften Werkstückes 19 mit
Blickrichtung von seiner Oberseite. Dies veranlasst die CPU 12 auch
zur Darstellung der ausgewählten vier Punkte E1 bis E4
der ersten Gruppe als Punkte E1 bis E4 auf dem Bildschirm der Wiedergabeeinrichtung 4 in dem
Schritt E5 nach 14.
-
Zusätzlich
betätigt der Benutzer den Unterrichtungszusatz 3 zum
Anklicken des Cursors an jedem der besonderen Punkte E5, E6, E7
und E8; Diese besonderen Punkte E5 bis E8 bilden eine zweite Gruppe.
-
Dies
veranlasst die CPU 12 zur Auswahl einer zweiten Gruppe
von vier Punkten E5 bis E8 nahe an der Umrisslinie der ebenen Darstellung
des tatsächlichen geprüften Werkstückes 19 bei
Blickrichtung von seiner Oberseite. Dies veranlasst die CPU 12 ferner
zur Darstellung der ausgewählten vier Punkte E5 bis E8
der zweiten Gruppe als Punkte E5 bis E8 auf dem Bildschirm der Wiedergabeeinrichtung 4 in
dem Schritt E5 (siehe 14).
-
Als
nächstes betätigt der Benutzer unter Beobachtung
des ebenen Bildes IP, welches auf dem Bildschirm der Wiedergabeeinrichtung 4 dargestellt wird,
den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zur
Bewegung des Roboterkörpers 1 in der X-Y-Ebene
des Roboterkoordinatensystems derart, dass das wesentliche Zentrum
des Blickfeldes FOV der Kamera 11 im Wesentlichen mit jedem
der Punkte E1 bis E4 der ersten Gruppe und jedem der Punkte E5 bis
E6 der zweiten Gruppe übereinstimmt, was in dem Schritt
E6 geschieht.
-
Nach
Ausrichtung zwischen jedem der ausgewählten Punkte E1 bis
E8 der ersten Gruppe und der zweiten Gruppe und des Zentrums des
Blickfeldes FOV der Kamera 11 betätigt der Benutzer
den Unterrichtungszusatz 3 zur Veranlassung der CPU 12 zu
folgendem:
Gewinnen einer Stellung (Position und Orientierung) des
Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S für jeden der ausgewählten
Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe basierend
auf der Information welche den tatsächlichen Drehwinkel
und die tatsächliche Winkelgeschwindigkeit jeder der Verbindungen 5, 6, 7a, 8a, 9 und 10 anzeigt;
und
Speichern der Stellungsdaten in dem RAM-Speicher 16,
welche die Stellung des Flansches 10 des Roboterkörpers 1 in
dem Roboterkoordinatensystem S für jeden der ausgewählten
Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe anzeigt,
in dem Schritt E7.
-
Im
Einzelnen gewinnt in dem Schritt E7 die CPU 12 als die
Position des Flansches 10 für jeden der ausgewählten
Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe die X-Achsen-,
Y-Achsen- und Z-Achsen-Koordinaten (Xwn, Ywn und Zpn) einer Position
im Roboterkoordinatensystem S, an welcher der Ursprungspunkt PO
des dreidimensionalen Koordinatensystems, welches in dem Flansch 10 definiert
ist, zu liegen kommt.
-
Zusätzlich
gewinnt in dem Schritt E7 die CPU 12 als die Orientierung
des Flansches 10 für jeden der ausgewählten
Punkte E1 bis E8 der ersten Gruppe und der zweiten Gruppe den Bezugsvektor,
welcher durch den Annäherungsvektor A und den Orientierungsvektor
O in dem Roboterkopfkoordinatensystem S definiert ist.
-
Dann
speichert die CPU 12 als die Stellungsdaten die gewonnene
Stellung (gewonnenen Position und gewonnene Orientierung) des Flansches 10 des
Roboterkörpers 1 für jeden der ausgewählten Punkte
E1 bis E8 der ersten Gruppe und der zweiten Gruppe in dem RAM-Speicher 16 in
dem Schritt E7.
-
Als
nächstes gewinnt die CPU 12 eine erste Figur,
welche durch Verbinden der Koordinatenpositionen des Flansches 10 für
die jeweiligen ausgewählten Punkte E1 bis E4 der ersten
Gruppe gebildet wird, und eine zweite Figur, welche durch Verbinden der
Koordinatenpositionen des Flansches 10 für die jeweiligen
ausgewählten Punkte E5 bis E8 der zweiten Gruppe gebildet
wird, was in dem Schritt E8 geschieht. Dann errechnet die CPU 12 ein
erstes wesentliches Zentrum der gewonnenen ersten Figur und ein
zweites wesentliches Zentrum der gewonnenen zweiten Figur in dem
Schritt E8.
-
Danach
stellt die CPU 12 in dem Schritt E9 die X- und Y-Achsen-Koordinaten
des ersten wesentlichen Zentrums der gewonnenen ersten Figur in
der X-Y-Ebene des Roboterkoordinatensystems S als die X- und Y-Achsen-Koordinaten
(Xon1, Yon1) des ersten zeitweise definierten Bezugspunktes des
geprüften Werkstückes 19 ein.
-
In
entsprechender Weise stellt die CPU 12 in dem Schritt E9
die X- und Y-Achsen-Koordinaten des zweiten wesentlichen Zentrums
der gewonnenen zweiten Figur und der X-Y-Ebene des Roboterkoordinatensystems
S als die X- und Y-Achsen-Koordinaten (Xon2, Yon2) des zweiten zeitweise
definierten Bezugspunktes des geprüften Werkstückes 19 ein.
-
Der
Benutzer und die CPU 12 führen in dem Schritt
E10 die Operationen aus, welche gleichwertig denjenigen im Schritt
S9 sind, so dass eine Höhe Zon in der Z-Richtung des Robotersystems
RS in dem RAM-Speicher 16 gespeichert wird.
-
Die
CPU 12 bestimmt somit die X-, Y- und Z-Achsen-Koordinaten
(Xon1, Yon1 und Zon), welche in dem RAM-Speicher 16 gespeichert
sind, als die X-, Y- und Z-Achsen-Koordinaten des ersten zeitweise
definierten Bezugspunktes des geprüften Werkstückes 19 in
dem Roboterkoordinatensystem S in dem Schritt E11. In entsprechender
Weise bestimmt die CPU 12 die X-, Y- und Z-Achsen-Koordinaten
(Xon2, Yon2 und Zon), welche in dem RAM-Speicher 16 gespeichert
sind, als die X-, Y- und Z-Achsen-Koordinaten des zweiten zeitweilig
definierten Bezugspunktes des geprüften Werkstückes 19 in
dem Roboterkoordinatensystem S im Schritt E11. Danach beendet die
CPU 12 die vierte Vorbereitungsroutine.
-
Nach
Bestimmung der Koordinatenposition jedes der zeitweilig definierten
Bezugspunkte des geprüften Werkstückes 19 in
dem Roboterkoordinatensystem S führt der Benutzer die Festlegungsroutine der
Objektaufnahmestellungen durch, wie dies oben ausgeführt
wurde.
-
Während
der Festlegungsroutine der Objektaufnahmestellungen kann das geprüfte
Werkstück 19 sich außerhalb des Blickfeldes
FOV der Kamera 11 befinden.
-
In
diesem Falle betätigt der Benutzer den Unterrichtungszusatz 3 zum
Anklicken des anklickbaren Bildfeldes IC, welches in dem Fenster
W des Bildschirmes der Wiedergabeeinrichtung 4 dargestellt
ist. Dies veranlasst die CPU 12 der Steuerung 2 zur
Einstellung ihres Betriebsmodus auf den zeitweilig definierten Zentrumsaufnahmemodus.
-
In
dem zeitweilig definierten Zentrumsaufnahmemodus führt
die CPU 12 die Bezugspunktaufnahmeroutine durch, wie sie
in 13 dargestellt ist und oben behandelt wurde.
-
In
der vierten Vorbereitungsroutine bewegen die CPU 12 und
der Benutzer, wenn das geprüfte Werkstück 19 sich
außerhalb des Blickfeldes FOV der Kamera 11 befindet,
den Roboterkörper 1 in Richtung auf einen der
ersten und zweiten zeitweilig definierten Bezugspunkte des geprüften
Werkstückes 19, der näher an der tatsächlichen
Position des Flansches 10 des Roboterkörpers 1 liegt,
als der andere der Punkte.
-
Dies
ermöglicht es, die Verschiebung des Roboterkörpers 1 zur
Erfassung des geprüften Werkstückes 19 in
dem Blickfeld FOV der Kamera 11 zu reduzieren.
-
Die
Kamera 11 kann an der vordersten Endfläche des
Flansches 10 derart befestigt sein, dass die optische Achse
L der Linse der Kamera 11 gegenüber einer Koordinatenachse,
welche in dem Flansch 10 definiert ist, fehlausgerichtet
ist. Bei dieser Modifikation kann die Kamera 11 von der äußersten
Endfläche des Flansches 10 derart befestigt sein,
dass die optische Achse L der Linse der Kamera 11 folgende Eigenschaft
hat:
orthogonal zu einer Koordinatenachse, welche in dem Flansch 10 definiert
ist;
parallel zu einer Koordinatenachse, welche in dem Flansch 10 definiert
ist; oder
geneigt zu einer Koordinatenachse, welche in dem Flansch 10 definiert
ist.
-
Wenn
Informationen, welche die lagemäßige Beziehung
zwischen der optischen Achse der Kamera 11 und einer Koordinatenachse
des Flansches 10 anzeigen, beispielsweise in dem RAM-Speicher 16 der
Steuerung 2 gespeichert sind, dann richtet die CPU 2 im
wesentlichen die Kamera 11 in Richtung auf einen zeitweilig
definierten Bezugspunkt des geprüften Werkstückes 19 derart,
dass das geprüfte Werkstück 19 mindestens
teilweise in dem Blickfeld FOV der Kamera 11 erfasst wird.
-
In
der vierten Vorbereitungsroutine kann die Anzahl der zeitweilig
definierten Bezugspunkte des geprüften Werkstückes 19 so
gewählt werden, dass sie größer als 2
ist.
-
Die
Kamera 11 kann als eine Kamera mit einem Autofokussierungsmechanismus
oder als eine Kamera mit einer Mehrzahl von Linsen ausgebildet sein,
welche unterschiedliche Brennweiten haben.
-
Die
vorliegende Erfindung kann auf vielerlei Robotersysteme angewendet
werden, beispielsweise auf ein Montagerobotersystem oder ein Beschichtungsrobotersystem.
-
Die
vorliegende Erfindung kann auf vielerlei Gestalten und Strukturen
von Robotern angewendet werden, ohne dass eine Beschränkung
auf einen vertikal gelenkigem Roboter besteht.
-
Während
hier beschrieben wurde, was gegenwärtig als Ausführungsform
der vorliegenden Erfindung und ihre Modifikationen angesehen wird,
versteht es sich, dass vielerlei Modifikationen, welche hier nicht
beschrieben sind, vorgenommen werden können, derart, dass
sämtliche derartige Modifikationen im Rahmen der anliegenden
Ansprüche von der durch die Erfindung gegebenen technischen
Lehre umfasst werden.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - JP 2008-062671 [0001]
- - JP 08-313225 [0004]
- - US 6642922 [0012]
- - JP 11-242513 [0012]