-
Technischer Bereich
-
Die vorliegende Erfindung betrifft eine Roboter-Schwerpunktanzeigevorrichtung, eine Roboter-Steuerungsvorrichtung und eine Roboter-Simulationseinrichtung.
-
Stand der Technik
-
Aus dem Stand der Technik ist ein Verfahren zur automatischen Berechnung des Lastgewichts am vorderen Ende eines Arms eines Knickarmroboters und dessen Schwerpunktposition ohne Verwendung eines Kraftsensors bekannt (siehe z. B. PTL 1).
-
Patentliteratur
-
- PTL 1: Japanische Patentanmeldung, Publikation Nr. Hei 10-138187
-
Zusammenfassung der Erfindung
-
Technisches Problem
-
Das Verfahren in PTL 1 wird jedoch zur Berechnung des Gewichts und der Schwerpunktposition einer Last auf der Basis des durchschnittlichen Drehmoments an den jeweiligen Antriebswellen verwendet, und kann nicht zur Bestimmung der Schwerpunktposition eines Roboters verwendet werden. Wäre es möglich, die Schwerpunktposition eines Roboters beim Transport des Roboters oder bei der Konstruktion eines Robotersystems zu bestimmen, wäre dies hilfreich, da der Roboter vor dem Umfallen bewahrt werden könnte.
-
Die vorliegende Erfindung wurde im Hinblick auf die oben beschriebenen Umstände gemacht, wobei es ein Gegenstand davon ist, einen Roboter mit einer Anzeigevorrichtung für die Schwerpunktposition, eine Robotersteuerungsvorrichtung und eine Robotersimulationseinrichtung zur Verfügung zu stellen, die es dem Nutzer ermöglichen, die Schwerpunktposition des Roboters leicht zu bestimmen.
-
Lösung des Problems
-
Um den oben beschriebenen Gegenstand zu erreichen, schlägt die vorliegende Erfindung die folgenden Lösungen vor.
-
Ein Aspekt der vorliegenden Erfindung stellt eine Roboter-Schwerpunktanzeigevorrichtung zur Verfügung, die Folgendes umfasst: eine Spezifikationseinstelleinheit, die die Spezifikationen einstellt, die zumindest die Gewichte, Schwerpunktpositionen und Abmessungen von Komponenten der jeweiligen Wellen eines Roboters umfasst; eine Haltungseinstelleinheit, die die Positionsinformationen der jeweiligen Wellen des Roboters einstellt; eine Roboter-Bilderzeugungseinheit, die ein dreidimensionales Modellbild des Roboters in einem Zustand erzeugt, in dem deren jeweilige Wellen an den durch die Positionsinformation angegebenen Positionen auf der Basis der durch die Haltungseinstelleinheit gesetzten Positionsinformation der jeweiligen Wellen des Roboters und den durch die Spezifikationseinstelleinheit gesetzten Spezifikationen der Komponenten angeordnet sind; eine Schwerpunktposition-Berechnungseinheit, die die Schwerpunktposition des Gesamtroboters auf der Basis der Positionsinformation der jeweiligen Wellen des Roboters berechnet, die durch die Haltungseinstelleinheit und die von der Haltungseinstelleinheit gesetzten Positionsinformation der jeweiligen Wellen des Roboters eingestellt worden sind; eine Bildkombinationseinheit, die eine Anzeige überlagert, die den Schwerpunkt des gesamten Roboters auf dem dreidimensionalen Modellbild, das von der Roboter-Bilderzeugungseinheit erzeugt wurde, in der von der Schwerpunktposition-Berechnungseinheit berechneten Schwerpunktposition zeigt; und eine Anzeigeeinheit, die das von der Bildkombinationseinheit erzeugte Bild anzeigt.
-
Nach diesem Gesichtspunkt erzeugt die Roboterbildgeneratoreinheit ein dreidimensionales Modellbild des Roboters in einem Zustand, in dem sich die jeweiligen Wellen des Roboters an den durch die Positionsinformation angezeigten Positionen befinden, sobald die Spezifikationseinstelleinheit die Spezifikationen einschließlich der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten des Roboters festlegt, und die Haltungseinstelleinheit die Positionsinformation der jeweiligen Wellen des Roboters festlegt. Anschließend berechnet die Schwerpunktposition-Berechnungseinheit aus den Positionsinformationen der jeweiligen Wellen des Roboters und den Spezifikationen der Bauteile die Schwerpunktposition des Gesamtroboters, wobei die Bildkombinationseinheit ein Bild erzeugt, in dem eine Anzeige des Schwerpunkts des Gesamtroboters auf das erzeugte dreidimensionale Bild des Roboters in der Schwerpunktposition überlagert wird. Anschließend wird dieses Bild auf der Anzeigeeinheit angezeigt. Mit dieser Konfiguration kann der Nutzer, unabhängig von der Körperhaltung des Roboters, die Schwerpunktposition des Roboters einfach und intuitiv durch das auf der Anzeigeeinheit dargestellte Bild bestimmen.
-
Unter dem obigen Aspekt kann die Anzeige des Schwerpunktes auch Koordinatenwerte enthalten, die die Schwerpunktposition des gesamten Roboters anzeigen.
-
Mit dieser Konfiguration kann der Nutzer durch die Anzeige der Koordinatenwerte, die die Schwerpunktposition des gesamten Roboters anzeigen, die Schwerpunktposition des Roboters besser bestimmen.
-
Darüber hinaus kann die Schwerpunktposition-Berechnungseinheit im obigen Aspekt die Schwerpunktposition der jeweiligen Komponenten berechnen, wobei die Bildkombinationseinheit Anzeigen überlagern kann, welche die Schwerpunkte der jeweiligen Komponenten auf dem dreidimensionalen Modellbild zeigt, und zwar an den Schwerpunktpositionen der jeweiligen Komponenten.
-
Mit dieser Konfiguration kann der Nutzer neben der Schwerpunktposition des Gesamtroboters auch die Schwerpunktposition der jeweiligen Komponenten einfach und intuitiv bestimmen.
-
Darüber hinaus können die Bauteile unter dem obigen Aspekt eine Last enthalten, die am vorderen Ende des Roboters angebracht ist.
-
Bei dieser Konfiguration wird die Last am vorderen Ende des Roboters als Teil der Komponenten des Roboters behandelt, so dass der Nutzer die Schwerpunktposition des gesamten Roboters einschließlich der Last leicht bestimmen kann.
-
Darüber hinaus kann die Haltungseinstelleinheit unter dem obigen Aspekt mehrere Sätze von Positionsinformationen der jeweiligen Wellen des Roboters lesen, die in einem Arbeitsprogramm des Roboters aufgezeichnet wurden, und kann die Positionsinformationen in chronologischer Reihenfolge konfigurieren.
-
Bei dieser Konfiguration erzeugt die Roboterbilderzeugungseinheit zu diesen Zeiten dreidimensionale Modellbilder des Roboters, wenn sich die jeweiligen Wellen des Roboters entsprechend dem Arbeitsprogramm des Roboters in zeitlicher Abfolge bewegen, um eine Vielzahl von Haltungen in chronologischer Reihenfolge einzunehmen, aufgrund der Haltungseinstelleinheit-Positionierungseinstellinformationen der jeweiligen Wellen zu unterschiedlichen Zeitpunkten, wobei die Schwerpunktpositions-Berechnungseinheit zu diesen Zeitpunkten die Schwerpunktpositionen des Gesamtroboters berechnet, und wobei Bilder erzeugt werden, in denen eine Anzeige des Schwerpunkts auf das dreidimensionale Modellbild überlagert wird.
-
Durch die Darstellung der so erzeugten Vielzahl von Bildern, die in chronologischer Reihenfolge von einem Bild zum anderen umgeschaltet werden, bewegt sich das dreidimensionale Modellbild des Roboters als Frame-by-Frame-Bild oder Video, wobei sich auch die Schwerpunktposition in jeder Körperhaltung mit der Bewegung des dreidimensionalen Modellbildes bewegt. Mit dieser Konfiguration kann der Nutzer während des Betriebes des Roboters einfach und intuitiv Änderungen der Schwerpunktposition feststellen.
-
Darüber hinaus kann die Positionsinformation der jeweiligen Wellen des Roboters auch den Einbaulagewinkel (Installationswinkel) des Roboters beinhalten.
-
Mit dieser Konfiguration ist es möglich, auch bei geneigter Aufstellung des Roboters, die Schwerpunktposition unter Berücksichtigung des Installationswinkels zu berechnen.
-
Unter einem weiteren Aspekt der vorliegenden Erfindung wird eine Robotersteuerungsvorrichtung bereitgestellt, die eine der oben beschriebenen Roboter-Schwerpunktanzeigevorrichtungen enthält.
-
Ein weiterer Aspekt der vorliegenden Erfindung stellt eine Robotersimulationsvorrichtung bereit, die eine der oben beschriebenen Roboterschwerpunktanzeigevorrichtungen enthält.
-
Vorteile der Erfindung
-
Die vorliegende Erfindung hat den Vorteil, dass der Nutzer eines Roboters die Schwerpunktposition des Roboters leicht bestimmen kann.
-
Kurze Beschreibung der Zeichnungen
-
1 ist ein Blockdiagramm, das eine Robotersteuerungsvorrichtung mit einer Roboter-Schwerpunktanzeigevorrichtung nach einer Ausführungsform der vorliegenden Erfindung zeigt.
-
2 ist ein Funktionsblockschaltbild mit der Schwerpunktanzeigevorrichtung in 1.
-
3 ist eine Darstellung, welche ein Beispiel für einen Eingabebildschirm einer Haltungseinstelleinheit der Schwerpunktanzeigevorrichtung in 2 zeigt.
-
4 ist eine Darstellung, welche ein Beispiel der Information über das Gewicht die Schwerpunktposition einer Last zeigt, die in Verbindung mit einer Lasteinstellungsnummer in 3 gespeichert ist.
-
5 ist eine schematische Darstellung eines Roboters zur Erläuterung einer beispielhaften Schwerpunktberechnungsmethode, die von einer Schwerpunktposition-Berechnungseinheit der Schwerpunktanzeigevorrichtung in 1 verwendet wird.
-
6 ist ein Diagramm, das ein Beispielbild zeigt, das von einer Bildkombinationseinheit der Schwerpunktanzeigevorrichtung erzeugt und auf der Anzeigeeinheit in 1 dargestellt wird.
-
7 ist ein Diagramm, das beispielhaft die Schwerpunktposition einer Robotersimulationsvorrichtung zeigt.
-
Beschreibung der Ausführungsformen
-
Nachfolgend wird anhand der Zeichnungen eine Roboter-Schwerpunktanzeigevorrichtung 1 entsprechend einer Ausführungsform der vorliegenden Erfindung beschrieben.
-
Die Roboter-Schwerpunktanzeigevorrichtung 1 entsprechend dieser Ausführungsform ist in einer Robotersteuerungsvorrichtung 100 vorgesehen.
-
Wie in 1 gezeigt ist, enthält die Robotersteuerungsvorrichtung 100 eine CPU 2, einen an die CPU 2 angeschlossenen Bus 3 und einen ROM 4, einen RAM 5, einen nichtflüchtigen Speicher 6, eine Lernbetrieb-Panel-Schnittstelle (I/F) 7, eine Wellensteuerungsschaltung 8 und eine Schwerpunktanzeigesteuereinheit 9, die parallel mit dem Bus 3 verbunden sind.
-
An die Lernbetrieb-Panel-Schnittstelle 7 wird ein Lernbetrieb-Panel 10 angeschlossen. Das Lernbetrieb-Panel 10 hat eine Anzeigefunktion. Durch manuelles Bedienen des Lernbetrieb-Panels 10 erzeugt, korrigiert und protokolliert ein Bediener ein Bedienprogramm für den Roboter 11, stellt verschiedene Parameter ein, reproduziert ein eingelerntes Bedienprogramm, führt einen Tippvorschub durch usw.
-
Im ROM 4 ist ein Systemprogramm zur Unterstützung der Grundfunktionen des Roboters 11 und der Robotersteuerungsvorrichtung 100 gespeichert. Weiterhin sind im nichtflüchtigen Speicher 6 Betriebsprogramme für den Roboter 11 gespeichert, die entsprechend den Anwendungen und den zugehörigen Einstelldaten angelernt sind. Daten, wie z. B. Programme für verschiedene Bearbeitungen, sind ebenfalls im nichtflüchtigen Speicher 6 gespeichert.
-
Wie in 2 gezeigt ist, umfasst die Schwerpunktanzeigeeinrichtung 1 gemäß dieser Ausführungsform: eine Spezifikationseinstelleinheit 12, die die Spezifikationen einschließlich der Gewichte, Schwerpunktpositionen und Abmessungen der Komponenten der jeweiligen Wellen des Roboters 11 festlegt; eine Haltungseinstelleinheit 13, die die Positionsinformationen der jeweiligen Wellen des Roboters 11 einstellt; eine Schwerpunktposition-Berechnungseinheit 14, die die Schwerpunktposition des Gesamt-Roboters 11 berechnet; eine Roboterbilderzeugungseinheit 15, die ein dreidimensionales Modellbild des Roboters 11 erzeugt; eine Schwerpunktanzeige-Erzeugungseinheit 16, die eine Schwerpunktanzeige erzeugt; eine Einheit 17 zur Kombination von Bildern, die die Schwerpunktanzeige auf dem dreidimensionalen Modellbild überlagert; und eine Anzeigeeinheit 18 zur Darstellung des kombinierten Bildes.
-
Die Spezifikationseinstelleinheit 12 besteht aus dem in 1 gezeigten nichtflüchtigen Speicher 6. Genauer gesagt, die Spezifikationen ergeben sich aus den Daten zu Länge, Gewicht und Schwerpunktposition der jeweiligen Glieder, die als Komponenten der jeweiligen Wellen des Roboters 11 dienen und im nichtflüchtigen Speicher 6 abgelegt sind.
-
Die Haltungseinstelleinheit 13 besteht aus dem in 1 gezeigten Lernbetrieb-Panel 10. Genauer gesagt stellt die Haltungseinstelleinheit 13 die Positionsinformationen der jeweiligen Wellen ein, indem es dem Nutzer die Möglichkeit gibt, über das Lernbetrieb-Panel 10 die Winkelinformationen der jeweiligen Wellen einzugeben. Wenn die Haltungseinstelleinheit 13 dem Nutzer z. B. die Eingabe der Winkelinformation der jeweiligen Wellen ermöglicht, zeigt sie eine Anzeige wie in 3 auf einer Anzeigeeinrichtung 10a des Lernbetrieb-Panels 10, und ermöglicht dem Nutzer die Eingabe des Installationswinkels des Roboters 11, der Winkel der jeweiligen Wellen und der Lasteinstellnummern.
-
Die Lasteinstellnummern sind die Nummern, die den jeweiligen Werkstücktypen (Lasten), Händen (Komponenten) usw., angebracht am vorderen Ende oder dergleichen des Roboters 11, zugeordnet sind. Wie in 4 gezeigt ist, werden die Lasteinstellnummern im nichtflüchtigen Speicher 6 gespeichert, um sie den Lastgewichten, Schwerpunktpositionen usw. zuzuordnen, und wenn ein Nutzer eine Lasteinstellnummer eingibt, können das zugehörige Lastgewicht und die Schwerpunktposition ausgelesen werden.
-
Aus der CPU 2 und dem ROM 4 bilden sich die Schwerpunktposition-Berechnungseinheit 14, die Roboterbilderzeugungseinheit 15, die Schwerpunktanzeigeerzeugungseinheit 16 und die Bildkombinationseinheit 17.
-
Die Schwerpunktanzeige-Steuerungseinheit 9 wird aktiviert, wenn ein Nutzer über das Lernbetrieb-Panel 10 eine Anweisung zur Schwerpunktanzeige eingibt. Anschließend zeigt die Schwerpunktanzeige-Steuerungseinheit 9 einen Eingabebildschirm an, wie in 3 dargestellt ist, auf der Anzeigeeinrichtung 10a des Lernbetrieb-Panel 10, um dem Nutzer die Eingabe von Informationen zu ermöglichen, und liest die Komponentengewicht- und Schwerpunktpositionsdaten aus dem nichtflüchtigen Speicher 6, der die Spezifikationseinstellungseinheit 12 bildet.
-
Die Roboterbilderzeugungseinheit 15 ist derart konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 dazu bringt, mittels eines im ROM 4 gespeicherten Roboterbilderzeugungsprogramms auf Basis der Eingangsinformationen über die Winkel der jeweiligen Wellen und die Ausleselängen der Glieder der Komponenten ein dreidimensionales Modell-Bild des Roboters 11 zu erzeugen.
-
Die Schwerpunktpositions-Berechnungseinheit 14 ist derart ausgebildet, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 dazu bringt, die Schwerpunktposition des Gesamt-Roboters 11 mit Hilfe eines im ROM 4 hinterlegten Schwerpunktberechnungsprogramms zu berechnen, und zwar anhand der eingelesenen Komponentengewicht- und Schwerpunktpositionsdaten, der Eingangsinformationen über die Winkel der jeweiligen Wellen usw.
-
Ein beispielhaftes Schwerpunktposition-Berechnungsverfahren, das von der Schwerpunktposition-Berechnungseinheit
14 verwendet wird, wird in Bezug auf Gleichung 1 und
5 beschrieben, indem ein Dreiachsroboter
11 mit fünf Einheiten (Komponenten)
21,
22,
23,
24 und
25 sowie einer Hand
26 und einem Werkstück
27 am vorderen Ende als Beispiel genommen wird. Die Schwerpunktposition des Gesamt-Roboters
11 kann mit Gleichung 1 berechnet werden. (Gleichung 1)
-
In Gleichung 1 bedeuten:
- wn:
- das Gewicht der n-ten Einheit,
- wh:
- das Gewicht der Hand 26,
- ww:
- das Gewicht des Werkstücks 27,
- xg:
- die x-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der x-Koordinate x0 des Ursprungs des Roboters 11,
- yg:
- die y-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der y-Koordinate y0 des Ursprungs des Roboters 11,
- zg:
- die z-Koordinate der Schwerpunktposition des Gesamt-Roboters 11, basierend auf der z-Koordinate z0 des Ursprungs des Roboters 11,
- xn:
- die x-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der x-Koordinate x0 des Nullpunktes des Roboters 11,
- yn:
- die y-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der y-Koordinate y0 des Nullpunktes des Roboters 11, und
- zn:
- die z-Koordinate der Schwerpunktposition der n-ten Einheit, basierend auf der z-Koordinate z0 des Nullpunktes des Roboters 11,
- xh:
- die x-Koordinate der Schwerpunktposition der Hand 26, basierend auf der x-Koordinate x0 des Nullpunktes des Roboters 11,
- yh:
- die y-Koordinate der Schwerpunktposition der Hand 26, basierend auf der y-Koordinate y0 des Nullpunktes des Roboters 11, und
- zh:
- die z-Koordinate der Schwerpunktposition der Hand 26, basierend auf der z-Koordinate z0 des Nullpunktes des Roboters 11,
- xw:
- die x-Koordinate der Schwerpunktposition des Werkstücks 27, basierend auf der x-Koordinate x0 des Roboter-Nullpunktes 11,
- yw:
- die y-Koordinate der Schwerpunktposition des Werkstücks 27, bezogen auf die y-Koordinate y0 des Nullpunktes des Roboters 11, und
- zw:
- die z-Koordinate der Schwerpunktposition des Werkstücks 27, bezogen auf die z-Koordinate z0 des Nullpunktes des Roboters 11.
-
Da die erste Einheit 21 am Boden befestigt ist und sich ihre Schwerpunktposition nicht ändert, werden die Koordinaten (x1, y1, z1) der Schwerpunktposition der ersten Einheit 21, basierend auf dem Ursprung (x0, y0, z0) des Roboters 11, wie folgt ausgedrückt: x1 = L1gx; y1 = L1gy; und z1 = L1gz, durch Verwendung der x-, y- und z-Komponenten (L1gx, L1gy und L1gz) des Abstandes, basierend auf dem Ursprung des Roboters 11.
-
Die zweite Einheit 22 wird von der ersten Einheit 21 um die vertikale Achse in einem Drehwinkel φ1 gedreht. Die Koordinaten (x2, y2, z2) der Schwerpunktposition der zweiten Einheit 22 bezogen auf den Nullpunkt (x0, y0, z0) des Roboters 11 werden daher wie folgt ausgedrückt: x2 = L2gxcosφ1; y2 = L2gysinφ1; und z2 = L2gz, durch Verwendung der x-, y- und z-Komponenten (L2gx, L2gy und L2gz) des Abstandes, basierend auf dem Ursprung des Roboters 11.
-
Die Koordinaten der Schwerpunktpositionen der dritten, vierten und fünften Einheit 23, 24 und 25 lauten: x3 = (LJ1 + LJ2gsinφ2)cosφ1; y3 = (LJ1 + LJ2gsinφ2)sinφ1; z3 = LJ2gcosφ2; x4 = (LJ1 + LJ2sinφ2 + LJ3gcosφ3)cosφ1; y4 = (LJ1 + LJ2sinφ2 + LJ3gcosφ3)sinφ1; z4 = LJ2cosφ2 + LJ3gsinφ3; x5 = (LJ1 + LJ2sinφ2 + LJ4gcosφ3)cosφ1; y5 = (LJ1 + LJ2sinφ2 + LJ4gcosφ3)sinφ1; und z5 = LJ2cosφ2 + LJ4gsinφ3.
-
Hierin bedeuten:
- LJ1:
- der Versatz zwischen dem Drehpunkt der ersten Einheit 21 und dem Drehpunkt der zweiten Einheit 22;
- LJ2:
- die Länge eines Gliedes, das in vertikaler Richtung um die zweite Einheit 22 geschwenkt wird;
- LJ2g:
- der Abstand zwischen dem Drehpunkt der zweiten Einheit 22 und der Schwerpunktposition der zweiten Einheit 22;
- LJ3g:
- Abstand zwischen dem Drehpunkt der dritten Einheit 23 und der Schwerpunktposition der dritten Einheit 23;
- LJ4g:
- der Abstand zwischen dem Drehpunkt der dritten Einheit 23 und der Schwerpunktposition der vierten (Handgelenk) Einheit 24;
- φ2:
- Drehwinkel der zweiten Einheit 22 um die horizontale Achse; und
- φ3:
- Drehwinkel der dritten Einheit 23 um die horizontale Achse.
-
Die Koordinaten der Schwerpunktposition des Gesamt-Roboters 11 können mit Gleichung 1 berechnet werden, indem man davon ausgeht, dass n = 1 und m = 5 und die Koordinaten der Schwerpunktposition der zweiten Einheit 22 allein mit Gleichung 1 berechnet werden können, indem man davon ausgeht, dass n = m = 2. Außerdem können die Koordinaten der Schwerpunktposition einer komplexen Einheit, bestehend aus der zweiten und dritten Einheit 22 und 23, mit Gleichung 1 berechnet werden, indem man davon ausgeht, dass n = 2 und m = 3 ist.
-
Die Schwerpunktposition-Berechnungseinheit 14 berechnet und zeigt die Schwerpunktposition auf der Anzeigeeinrichtung 10a an, wenn z. B. in der Eingabemaske in 3 Informationen über die Winkel der jeweiligen Wellen und die Lasteinstellnummern eingegeben werden, wobei dann ein Umkehrpfeil angezeigt wird. Wie in 3 dargestellt ist, kann ein Pfeil zur Umkehrung der Umkehrung bereitgestellt sein. Bei dieser Konfiguration kann durch Kennzeichnung des Umkehrpfeils nach Eingabe der Lasteinstellnummern und der Schwerpunktposition die Positionsinformation der jeweiligen Wellen durch Umrechnung in umgekehrte Richtung ermittelt werden.
-
Die Schwerpunktanzeige-Erzeugungseinheit 16 ist so konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 veranlasst, ein Schwerpunktanzeigebild zu erzeugen, in dem z. B. ein vorgespeichertes Bild einer Kugel oder dergleichen in der Schwerpunktposition des Gesamt-Roboters 11 angeordnet ist, die von der Schwerpunktposition-Berechnungseinheit 14 berechnet wurde.
-
Die Bildkombinationseinheit 17 ist so konfiguriert, dass die Schwerpunktanzeige-Steuerungseinheit 9 die CPU 2 veranlasst, das dreidimensionale Modellbild des Roboters 11, das von der Roboterbilderzeugungseinheit 15 erzeugt wurde, und das von der Schwerpunktanzeige-Erzeugungseinheit 16 erzeugte und an der Schwerpunktposition des Gesamt-Roboters 11 angeordnete Schwerpunktanzeige-Bild zu einem kombinierten Bild zusammenzufügen.
-
Anschließend wird das von der CPU 2 erzeugte kombinierte Bild an das Lernbetrieb-Panel 10 gesendet, über die Lernbetrieb-Panel-Schnittstelle 7, von der Schwerpunktanzeige-Steuerungseinheit 9, und wird auf der Anzeigeeinrichtung 10a des Lernbetrieb-Panels 10, wie in 6 dargestellt, angezeigt.
-
Nach der entsprechend dieser Ausführungsform konfigurierten Roboter-Schwerpunktanzeigevorrichtung 1 kann ein Nutzer einfach durch Eingabe der Winkelinformationen der jeweiligen Wellen, mit denen eine Haltung des Roboters 11 erreicht wird, über die er/sie die Schwerpunktposition überprüfen möchte, und dann durch Auswählen einer Last, einfach und intuitiv ein Bild überprüfen, bei dem eine Anzeige, die den Schwerpunkt zeigt, auf ein dreidimensionales Modell-Bild des Roboters 11 überlagern, der diese Haltung einnimmt, und zwar auf der Anzeigeeinrichtung 10a. Dementsprechend ist es möglich, die Schwerpunktposition des Roboters 11 zu bestimmen, wenn der Roboter 11 transportiert wird oder wenn der Aufbau eines Robotersystems in Betracht gezogen wird, was insofern zu einem Vorteil führt, indem man verhindern kann, dass der Roboter 11 umkippt etc.
-
Durch Eingabe des Installationswinkels des Roboters 11, auch bei geneigter Montage des Roboters 11, ist es möglich, wie oben beschrieben, die Schwerpunktposition unter Berücksichtigung des Installationswinkels zu berechnen.
-
Es ist zu beachten, dass in dieser Ausführungsform zwar ein Beispiel für den Fall, dass die Spezifikationseinstelleinheit 12 aus dem nichtflüchtigen Speicher 6 besteht, beschrieben wurde, der Nutzer jedoch Informationen aus dem Lernbetrieb-Panel 10 eingeben kann.
-
Auch wenn die Haltungseinstelleinheit 13 es dem Nutzer erlaubt, Informationen aus dem Lernbetrieb-Panel 10 einzugeben, können statt dessen Informationen über die Winkel der jeweiligen Wellen in den jeweiligen Schritten des vom Nutzer benannten Roboter-Betriebsprogramms gelesen und in chronologischer Reihenfolge konfiguriert werden.
-
Genauer gesagt, jedes Mal, wenn die Informationen über die Winkel der jeweiligen Wellen in jedem Schritt aus dem Roboter-Betriebsprogramm ausgelesen werden, wird von der Roboterbilderzeugungseinheit 15 ein dreidimensionales Modellbild des Roboters 11 erzeugt, die Schwerpunktposition des Gesamt-Roboters 11 wird von der Schwerpunktposition-Berechnungseinheit 14 berechnet, eine Anzeige des Schwerpunktes wird von der Schwerpunktanzeige-Erzeugungseinheit 16 erzeugt, und die Bilder werden von der Bildkombinationseinheit 17 kombiniert und auf der Anzeigeeinheit 18 angezeigt. Folglich bewegt sich das dreidimensionale Modellbild des Roboters 11 dabei wie ein Einzelbild oder Video, und mit der Bewegung des dreidimensionalen Modellbildes bewegt sich auch die Schwerpunktposition in jeder Körperhaltung. Der Vorteil liegt also darin, dass der Nutzer während des Betriebs des Roboters 11 Änderungen der Schwerpunktposition einfach und intuitiv feststellen kann.
-
In dieser Ausführungsform ist die Form der Anzeige zwar nicht auf die Kugelform beschränkt, obwohl die Schwerpunktanzeige-Erzeugungseinheit 16 eine kugelförmige Anzeige erzeugt, die das Zentrum der Schwerkraft an der Schwerpunktposition zeigt, sondern die Anzeige kann jede beliebige Form sein. Zusätzlich zu der sphärischen oder anderen Anzeige des Schwerpunktes, wie in 6 gezeigt ist, können die Koordinatenwerte des Schwerpunktes durch Text angegeben werden. Damit kann der Nutzer die Position des Schwerpunktes genauer überprüfen.
-
In dieser Ausführungsform wird zwar der Schwerpunkt des Gesamt-Roboters 11 dargestellt, zusätzlich dazu können aber, wie beispielsweise in Fig. gezeigt wird, die Schwerpunktpositionen P1, P2 und P3 der Einheiten 21, 22, 23, 24 und 25 der jeweiligen Wellen angezeigt werden.
-
In dieser Ausführungsform kann, obwohl ein Fall beschrieben wurde, in dem die Robotersteuerungsvorrichtung 100 mit der Schwerpunktanzeigevorrichtung 1 ausgerüstet ist, anstelle dessen die Schwerpunktanzeigevorrichtung 1 in einer nicht mit dem Roboter 11 verbundenen Simulationsvorrichtung vorgesehen werden. Dadurch kann, wie in 7 gezeigt ist, die vorliegende Erfindung in einem Fall verwendet werden, in dem die Schwerpunktpositionen P1, P2 und P3 in den jeweiligen Körperhaltungen des Roboters 11 simuliert werden, wenn eine große Last (z. B. ein Auto oder eine Hand zur Handhabung des Autos) oder ähnliches, was schwer vorzubereiten ist, angenommen wird.
-
Bezugszeichenliste
-
- 1
- Schwerpunktanzeigevorrichtung
- 2
- CPU (Schwerpunktposition-Berechnungseinheit, Roboterbilderzeuger, Schwerpunktanzeige-Erzeugungseinheit, und Bildkombinationseinheit)
- 4
- ROM (Schwerpunktposition-Berechnungseinheit, Roboterbilderzeuger, Schwerpunktanzeige-Erzeugungseinheit, und Bildkombinationseinheit)
- 6
- nichtflüchtiger Speicher (Spezifikationseinstelleinheit)
- 10
- Lernbetrieb-Panel (Haltungseinstelleinheit)
- 11
- Roboter
- 12
- Spezifikationseinstelleinheit
- 13
- Haltungseinstelleinheit
- 14
- Schwerkraftposition-Berechnungseinheit
- 15
- Roboterbilderzeugungseinheit
- 17
- Bildkombiniereinheit
- 18
- Anzeigeeinheit
- 21, 22, 23, 24 und 25
- Einheit (Komponente)
- 26
- Hand (Komponente)
- 27
- Werkstück (Komponente und Last)
- 100
- Robotersteuerungsvorrichtung