DE102018009025B4 - Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems - Google Patents

Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems Download PDF

Info

Publication number
DE102018009025B4
DE102018009025B4 DE102018009025.7A DE102018009025A DE102018009025B4 DE 102018009025 B4 DE102018009025 B4 DE 102018009025B4 DE 102018009025 A DE102018009025 A DE 102018009025A DE 102018009025 B4 DE102018009025 B4 DE 102018009025B4
Authority
DE
Germany
Prior art keywords
robot
coordinate system
image
movement
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018009025.7A
Other languages
English (en)
Other versions
DE102018009025A1 (de
Inventor
Yuusuke Kurihara
Tomoyuki Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018009025A1 publication Critical patent/DE102018009025A1/de
Application granted granted Critical
Publication of DE102018009025B4 publication Critical patent/DE102018009025B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33004Manual control of manipulator, machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39137Manual teaching, set next point when tool touches other tool, workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50048Jogging

Abstract

Robotersteuervorrichtung, aufweisend:eine Anzeigeeinheit (33) zum Anzeigen eines dreidimensionalen Bildes (71, 72, 73, 74) mit einem Bewegungskoordinatensystem (63) zum Ausführen einer Bewegungsoperation und mit einem Roboter (1);eine Eingabeeinheit (32, 33) mit einer Roboterbetätigungseinrichtung (34a, 34b) entsprechend Koordinatenachsen des Bewegungskoordinatensystems;eine Anzeigesteuereinheit (52) zum Steuern des auf der Anzeigeeinheit dargestellten Bildes; undeine manuelle Steuereinheit (53) zum Detektieren einer Betätigung der Roboterbetätigungseinrichtung zur Änderung der Position und der Orientierung des Roboters entsprechend der Betätigung der Roboterbetätigungseinrichtung, wobeidie Eingabeeinheit eine Bildbetätigungseinrichtung (33) aufweist, mit der eine Bedienungsperson das Bild auf der Anzeigeeinheit bearbeiten kann;die Anzeigesteuereinheit das Bild so ändert, dass die Richtung des Bewegungskoordinatensystems oder die Richtung des Roboters fixiert ist, während die dabei nicht fixierte Richtung des Bewegungskoordinatensystems bzw. des Roboters entsprechend einer Eingabe der Bedienungsperson in die Bildbetätigungseinrichtung geändert wird; und wobeidann, wenn die Bedienungsperson die Roboterbetätigungseinrichtung betätigt, die manuelle Steuereinheit die Position und Orientierung des Roboters auf Basis einer Richtung des Bewegungskoordinatensystems in Bezug auf den Roboter in dem Bild ändert.

Description

  • Die Erfindung betrifft ein Robotersteuersystem zum Einstellen eines Bewegungskoordinatensystems.
  • Bei Roboteranlagen ist eine Robotersteuervorrichtung bekannt, mit der ein Roboter manuell betrieben werden kann. Beispielsweise ist eine Robotersteuervorrichtung bekannt mit einer Funktion für einen automatischen Antrieb eines Roboters entsprechend einem Bewegungsprogramm sowie einer Funktion zum Betreiben eines Roboters entsprechend einer seitens einer Bedienungsperson durchgeführten Betätigung.
  • Das Bewegungsprogramm kann auf Basis von Lehrpunkten (sogenannte „teaching points“) generiert werden, welche durch die Bedienungsperson vorgegeben werden. Die Bedienungsperson kann die Lehrpunkte einstellen durch einen manuellen Betrieb des Roboters. Beispielsweise betätigt die Bedienungsperson ein Lehr-Bedienfeld (sogenanntes „pendant“), wobei der Roboter in eine gewünschte Position und Orientierung gebracht wird. Die Position des Werkzeugmittelpunktes des Roboters kann dabei als ein Lehrpunkt in einer Steuervorrichtung abgespeichert werden. Die Steuervorrichtung kann das Bewegungsprogramm auf Basis dieser Lehrpunkte generieren.
  • Lehr-Bedienfelder sind häufig mit einer Anzeigeeinheit versehen zum Anzeigen von Informationen bezüglich des Antriebs eines Roboters. Beispielsweise ist eine Steuerung bekannt, bei der der Verlauf der Lehrpunkte des Roboters auf der Anzeigeeinheit dargestellt wird und die Bedienungsperson den Verlauf in einem Bild ändert (siehe beispielsweise JP H10 - 291 183 A ).
  • Werden Lehrpunkte für einen Roboter eingestellt, kann eine Bedienungsperson zusätzlich zum Betätigen des Lehr-Bedienfeldes zum Antrieb des Roboters die Position und die Orientierung des Roboters dadurch ändern, dass sie einen Arm des Roboters ergreift, um diesen zu bewegen. Auch kann eine Bedienungsperson Lehrpunkte setzen entsprechend der gewünschten Position und Orientierung des Roboters. Sind derartige Lehrpunkte gesetzt, ist eine Steuerung bekannt, bei der ein Modell des Roboters auf der Anzeigeeinheit dargestellt wird (siehe beispielsweise JP 2017 - 19 068 A ).
  • Beim Einstellen von Lehrpunkten ist es bekannt, die Position und Orientierung des Roboters zu ändern durch Betätigung von Tasten auf dem Lehr-Bedienfeld. Weiter ist bekannt, ein Bewegungskoordinatensystem (sogenanntes „jog coordinate system“) einzustellen für einen Bewegungsbetrieb (siehe beispielsweise JP H09 - 16 260 A ).
  • DE 697 35 269 T2 beschreibt ein Tippvorschubverfahren für einen Industrieroboter, bei dem die Bewegungsrichtung eines Roboters über eine Lehrkonsole festgelegt wird. Das Verfahren umfasst die folgenden Schritte:
    1. (A) Anzeigen einer Anfangsgraphik, die eine Ausrichtung des Roboters vor Beginn seiner Bewegung auf dem Anzeigeschirm einer Graphikanzeigevorrichtung darstellt;
    2. (B) Starten einer zweidimensionalen Positionseingabe für den Tippvorschub auf dem Anzeigeschirm der Graphikanzeigevorrichtung mit einer Zeigevorrichtung;
    3. (C) nacheinander Umwandeln der zweidimensionalen Positionseingabe auf Basis ebener Positionsdaten;
    4. (D) nacheinander Erneuern der Graphik von dem Roboter auf Basis der dreidimensionalen Positionsausgabe;
    5. (E) Bewegen des Roboters auf Basis der dreidimensionalen Positionsausgabe mithilfe der Robotersteuerung;
    6. (F) Beenden der zweidimensionalen Positionseingabe mit der Zeigevorrichtung für den Tippvorschub. Die Lehrkonsole umfasst einen Graphikanzeigebedienungsabschnitt, über den manuell Anzeigebedingungen wie die Sichtlinie, eine Verkleinerungsskala und ein Sichtpunkt auf der Graphikanzeigevorrichtung eingegeben werden können. Nach Änderung der Anzeigebedingungen wird die Graphik aktualisiert.
  • EP 1 510 893 A1 beschreibt ein Verfahren zum Festlegen der Bewegungsbahn eines Handlingsystems, wobei die Bewegungsbahn des Handlingsystems, die mehrere Bewegungsabschnitte aufweist, zunächst festgelegt und dann manuell korrigiert wird. Dabei wird zumindest der zu korrigierende Bewegungsabschnitt mit einer ihm zugeordneten Bezugsstelle, -linie, oder -fläche eines zu bearbeitenden Werkstücks auf einem Bildschirm angezeigt und die manuelle Korrektur der Bewegungsbahn wird am Bildschirm durch Bewegen der Bezugsstelle, -linie, oder -fläche vom Bediener graphisch ausgeführt.
  • JP 2011 - 189 431 A beschreibt ein Verfahren zum Bestimmen der Orientierung eines handgeführten Panels zur manuellen Bedienung eines Roboters, ohne dabei auf subjektive Aktionen des Bedieners des Roboters zurückzugreifen. Dafür umfasst das handgeführte Panel eine Kamera, mit der ein Bild des Roboters aufgenommen wird. Zudem wird ein dreidimensionales Modell des Roboters basierend auf aktuellen Positionsinformationen erstellt. Danach wird der Standpunkt so lange verändert, bis die höchste Übereinstimmung zwischen dem dreidimensionalen Modell und dem Bild des Roboters erreicht ist. Der Standpunkt, der sich bei der höchsten Übereinstimmung ergibt, wird als der Standpunkt des handgeführten Panels gesetzt. Die Abweichung zwischen dem Koordinatensystem des Roboters und dem Standpunkt des handgeführten Panels wird geschätzt und mit hinreichender Genauigkeit gesetzt. Unter Berücksichtigung der Abweichung werden eine Eingaberichtung und ein Eingabebetrag am handgeführten Panel in eine Eingaberichtung und einen Eingabebetrag im Roboterkoordinatensystem konvertiert und mit der Bewegungsrichtung des Roboters synchronisiert. Dadurch entspricht die Bewegungsrichtung, die der Bediener in das handgeführte Panel eingibt, der tatsächlichen Bewegungsrichtung des Roboters.
  • JP 2006 - 142 480 A beschäftigt sich mit der graphischen Darstellung eines Lehrpunktes eines Roboterprogramms und einer Position eines Roboters auf einer Lehrkonsole des Roboters. Dafür werden Bewegungsdaten des Roboters, der Lehrpunkt und die aktuelle Roboterposition aus einem Roboterprogramm erzeugt, zwischengespeichert und auf einer Anzeigevorrichtung der Lehrkonsole angezeigt. Die Anzeigevorrichtung umfasst ein Touch-Panel. Ein Befehl zum Bewegen des Roboters von einer aktuellen Position des Roboters zu einer bestimmten Lehrposition wird durch spezifizieren des Lehrpunktes mittels des Touch-Panels erzeugt, um die Bewegung des Roboters zu visualisieren.
  • Beim manuellen Betreiben eines Roboters kann die Bedienungsperson ein Bewegungskoordinatensystem in einem Bereich einstellen, in dem der Roboter arbeitet. Ist das Bewegungskoordinatensystem eingestellt, kann der Roboter in einer der Koordinatenachse entsprechenden Richtung angetrieben werden durch Betätigung einer Taste auf dem Lehr-Bedienfeld, welche der Koordinatenachse des Bewegungskoordinatensystems zugeordnet ist.
  • Bei einem Verfahren zum Einstellen eines Bewegungskoordinatensystems kann eine Bedienungsperson direkt Informationen bezüglich des Bewegungskoordinatensystems in die Steuervorrichtung eingeben. Beispielsweise kann die Bedienungsperson die Position eines Ausgangspunktes im Bewegungskoordinatensystem in das Bezugskoordinatensystem des Roboters und die Richtung des Bewegungskoordinatensystems in das Bezugskoordinatensystem einstellen. Dabei kann die Bedienungsperson das Bewegungskoordinatensystem durch Eingabe von Koordinatenwerten in das Bezugskoordinatensystem einstellen. Andererseits kann gemäß der oben erwähnten JP H09 - 16 260 A in dem Bereich, in dem der Roboter arbeitet, die Richtung einer Koordinatenachse des Bewegungskoordinatensystems eingestellt werden durch Vorgabe der Positionen zweier Punkte.
  • Dabei wird beim Einstellen des Bewegungskoordinatensystems des Roboters von der Bedienungsperson verlangt, die Informationen bezüglich des Bewegungskoordinatensystems einzustellen. Ist aber während eines manuellen Roboterbetriebs ein Bewegungskoordinatensystem verschieden vom gerade gegebenen Bewegungskoordinatensystem erforderlich, muss das Bewegungskoordinatensystem durch das oben beschriebene Verfahren eingestellt werden.
  • Es kann auch eine Mehrzahl von Bewegungskoordinatensystemen in einer Speichereinheit abgespeichert werden. In der Zeit, in welcher der Roboter dann manuell betrieben wird, kann zwischen den Bewegungskoordinatensystemen umgeschaltet werden. Wenn bei diesem Verfahren ein Bewegungskoordinatensystem verschieden von den im Voraus abgespeicherten Bewegungskoordinatensystemen erforderlich ist, ist es auch bei diesem Verfahren nötig, mit dem oben beschriebenen Verfahren das Bewegungskoordinatensystem einzustellen. Andernfalls muss die Bedienungsperson das vorgegebene Bewegungskoordinatensystem anwenden und dies mindert die Effizienz des Betriebs.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Effizienz beim Betrieb für das Einstellen von Lehrpunkten eines Roboters im manuellen Betrieb zu verbessern. Eine weitere Aufgabe besteht in der Bereitstellung eines Bewegungskoordinatensystems in Bezug auf den Roboter auf einer Anzeigeeinheit, das sich von einem Bediener in einfacher Weise einstellen/ändern lässt durch Bearbeiten eines Bildes auf der Anzeigeeinheit.
  • Die vorliegende Erfindung ist in Patentanspruch 1 definiert. Bevorzugte Ausführungsformen ergeben sich aus den Unteransprüchen.
  • Zur Lösung der Aufgabe ist eine Robotersteuervorrichtung gemäß einer Variante dieser Beschreibung mit einer Anzeigeeinheit versehen zum Anzeigen eines dreidimensionalen Bildes einschließlich eines Bewegungskoordinatensystems „jog coordinate system“ und mit einem Roboter zur Ausführung eines Bewegungsbetriebs und mit einer Eingabeeinheit einschließlich einer Roboterbetätigungseinrichtung entsprechend einer Koordinatenachse des Bewegungskoordinatensystems. Die Steuervorrichtung ist mit einer Anzeigesteuereinheit versehen zum Steuern des auf der Anzeigeeinheit dargestellten Bildes und mit einer manuellen Steuereinheit zum Detektieren einer Betätigung der Roboterbetätigungseinrichtung, um so die Position und Orientierung des Roboters entsprechend der Betätigung der Roboterbetätigungseinrichtung zu ändern. Die Eingabeeinheit hat eine
  • Bildbetätigungseinrichtung, mit welcher eine Bedienungsperson das Bild auf der Anzeigeeinheit beeinflusst. Die Anzeigesteuereinheit ändert das Bild so, dass die Richtung des Bewegungskoordinatensystems oder des Roboters festliegt, während die Richtung des anderen dieser beiden Parameter sich ändert entsprechend der Betätigung der Bedienungsperson bezüglich der Bildbetätigungseinrichtung. Bedient die Bedienungsperson die Roboterbetätigungseinrichtung, ändert die manuelle Steuereinheit Position und Orientierung des Roboters auf Basis der Richtung des Bewegungskoordinatensystems in Bezug auf den Roboter in dem Bild.
    • 1 zeigt eine perspektivische Ansicht einer Robotervorrichtung gemäß einem Ausführungsbeispiel.
    • 2 ist ein Blockdiagramm der Robotervorrichtung des Ausführungsbeispieles.
    • 3 zeigt schematisch eine Draufsicht auf ein Lehr-Bedienfeld gemäß dem Ausführungsbeispiel.
    • 4 zeigt ein erstes Bild des auf der Anzeigeeinheit eines Lehr-Bedienfeldes dargestellten Roboters.
    • 5 zeigt ein zweites Bild des auf der Anzeigeeinheit des Lehr-Bedienfeldes dargestellten Roboters.
    • 6 zeigt ein drittes Bild des auf der Anzeigeeinheit des Lehr-Bedienfeldes dargestellten Roboters.
    • 7 zeigt ein viertes Bild des auf der Anzeigeeinheit des Lehr-Bedienfeldes dargestellten Roboters.
    • 8 zeigt ein fünftes Bild des auf der Anzeigeeinheit des Lehr-Bedienfeldes dargestellten Roboters.
    • 9 ist ein Flussdiagramm der Steuerung des auf der Anzeigeeinheit des Lehr-Bedienfeldes dargestellten Bildes.
  • Mit Bezug auf die 1 bis 9 wird nunmehr eine Robotersteuervorrichtung gemäß Ausführungsbeispielen näher beschrieben. Die Robotervorrichtung gemäß einem beschriebenen Ausführungsbeispiel ist so ausgelegt, dass eine Bedienungsperson den Roboter manuell steuern kann. Die manuelle Steuerung des Roboters gemäß diesem Ausführungsbeispiel enthält eine Steuerung, bei der die Bedienungsperson eine Komponente des Roboters, wie einen Arm, ergreift, um die Komponente zu bewegen, sowie auch eine Steueroperation, für die Tasten oder dergleichen auf einem Betätigungsfeld des Roboters betätigt werden, um so den Roboter zu lenken. Die Steuervorrichtung gemäß diesem Ausführungsbeispiel ändert die Position und Orientierung des Roboters auf Basis der Eingaben der Bedienungsperson in ein Betätigungsfeld.
  • 1 ist eine schematische perspektivische Darstellung der Robotervorrichtung gemäß diesem Ausführungsbeispiel. Die Robotervorrichtung 5 hat einen Roboter 1 und eine Hand 2. Die Robotervorrichtung 5 ist mit einer Steuervorrichtung 4 versehen zum Steuern des Roboters 1 und der Hand 2. Der Roboter 1 dieses Ausführungsbeispieles ist ein Gelenkroboter mit einer Mehrzahl von angetriebenen Achsen. Beim Gelenkroboter dieses Ausführungsbeispieles werden sechs Antriebsachsen an den Gelenken eingestellt. In den Gelenken werden die Richtungen des Armes und eines Handgelenkes um die Antriebsachsen geändert.
  • Die Hand 2 ist ein Betätigungswerkzeug zum Ergreifen oder zum Freigeben eines Werkstückes. Das Betätigungswerkzeug wird auch als „Effektor“ (Greiforgan) bezeichnet. Die Hand 2 ist so ausgebildet, dass sie Finger 2a öffnen bzw. schließen kann. Das Betätigungswerkzeug ist hier nicht auf eine Hand 2 eingeschränkt und es kann ein jegliches Betätigungswerkzeug, welches mit der Robotervorrichtung 5 zusammenwirken kann, eingesetzt werden. Beispielsweise kann ein Betätigungswerkzeug für einen Schweißvorgang oder ein Betätigungswerkzeug für die Anordnung von abdichtendem Material auf der Oberfläche eines Werkstückes eingesetzt werden.
  • Der Roboter 1 gemäß diesem Ausführungsbeispiel hat einen oberen Arm 11 und einen unteren Arm 12. Der untere Arm 12 ist auf einer Drehlagerbasis 13 abgestützt. Die Drehlagerbasis 13 wird durch eine Basis 14 abgestützt. Der Roboter 1 hat ein Handgelenk 15, welches an einem Ende des oberen Armes 11 angeschlossen ist. Das Handgelenk 15 hat einen Flansch 16, an dem die Hand 2 angebracht ist. Diese Komponenten des Roboters 1 sind so ausgebildet, dass sie um vorgegebene Antriebsachsen drehen.
  • Die Steuervorrichtung 4 hat einen Hauptkörper 3 mit einem Rechner zum Steuern des Roboters 1. Der Hauptkörper 3 ist mit dem Roboter 1 verbunden. Die Steuervorrichtung 4 hat ein Lehr-Bedienfeld 31, welches mit dem Hauptkörper 3 über eine Kommunikationseinrichtung verbunden ist. Das Lehr-Bedienfeld 31 bewirkt eine Betätigung des Hauptkörpers 3 oder es zeigt Informationen an.
  • 2 ist ein Blockdiagramm der Robotervorrichtung gemäß diesem Ausführungsbeispiel. Gemäß den 1 und 2 hat der Roboter 1 eine Roboterantriebsvorrichtung zum Ändern der Position und Orientierung des Roboters 1. Die Roboterantriebsvorrichtung hat Roboterantriebsmotoren 22 zum Antreiben der Komponenten, wie dem Arm und dem Handgelenk. Beim vorliegenden Ausführungsbeispiel ist ein Roboterantriebsmotor 22 pro Antriebsachse vorgesehen.
  • Die Robotervorrichtung 5 ist mit einer Handantriebsvorrichtung versehen zum Antrieb der Hand 2. Die Handantriebsvorrichtung enthält einen Handantriebsmotor 21 zum Antreiben der Finger 2a der Hand 2. Der Handantriebsmotor 21 bewirkt ein Öffnen und Schließen des Finger 2a der Hand 2.
  • Der Roboter 1 dieses Ausführungsbeispieles ist so ausgelegt, dass er auf Basis eines vorgegebenen Bewegungsprogrammes 41 angetrieben wird. Der Roboter 1 kann automatisch ein Werkstück von einer Ausgangsposition in eine Zielposition auf Basis des Bewegungsprogrammes 41 überführen.
  • Der Hauptkörper 3 der Steuervorrichtung 4 hat eine arithmetische Prozessoreinheit (Computer) mit einer CPU (Zentrale Prozessoreinheit), einem RAM (Speicher mit wahlfreiem Zugriff) und einen ROM (Lesespeicher), welche über einen Bus mit der CPU verbunden sind. Die Steuervorrichtung 4 hat eine Speichereinheit 42 zum Abspeichern von Informationen bezüglich der Steuerung des Roboters 1. Eine Bewegungssteuereinheit 43 überträgt einen Bewegungsbefehl zum Antrieb des Roboters 1 zu einer Roboterantriebseinheit 45 entsprechend dem Bewegungsprogramm 41. Die Roboterantriebseinheit 45 hat eine elektrische Schaltung zum Antrieb des Roboterantriebsmotors 22. Die Roboterantriebseinheit 45 liefert Strom zum Roboterantriebsmotor 22 entsprechend den Bewegungsbefehlen. Die Position und die Orientierung des Roboters 1 werden durch Betreiben des Roboterantriebsmotors 22 geändert.
  • Die Bewegungssteuereinheit 43 überträgt einen Bewegungsbefehl zum Antrieb der Hand 2 zu einer Handantriebseinheit 44 entsprechend dem Bewegungsprogramm 41. Die Handantriebseinheit 44 enthält eine elektrische Schaltung zum Antrieb des Handantriebsmotors 21. Die Handantriebseinheit 44 liefert Strom zum Handantriebsmotor 21 entsprechend einem Bewegungsbefehl. Der Handantriebsmotor 21 wird so angetrieben, dass die Finger 2a der Hand 2 betätigt werden. Die Hand 2 kann ein Werkstück ergreifen bzw. freigeben.
  • Der Roboter 1 hat einen Zustandsdetektor zum Detektieren der Position und der Orientierung des Roboters 1. Der Zustandsdetektor dieses Ausführungsbeispieles enthält einen Positionsdetektor 18, der am Roboterantriebsmotor 22 angebracht ist. Die Richtung der Komponente bezüglich jeder Antriebsachse kann vom Ausgangssignal des Positionsdetektors 18 gewonnen werden. Beispielsweise kann der Positionsdetektor 18 einen Drehwinkel detektieren, wenn der Roboterantriebsmotor 22 betätigt wird.
  • 3 ist eine schematische Draufsicht auf ein Lehr-Bedienfeld gemäß dem Ausführungsbeispiel. Entsprechend den 1 bis 3 enthält das Lehr-Bedienfeld 31 eine Eingabeeinheit 32 zum Eingeben von Daten bezüglich des Roboters 1. Die Bedienungsperson kann gewünschte Daten eingeben durch Betätigung der Eingabeeinheit 32. Die Eingabeeinheit 32 hat eine Mehrzahl von Tasten 34a, 34b, welche den Koordinatenachsen eines vorgegebenen Koordinatensystems entsprechen (zugeordnet sind). Die Tasten 34a, 34b dienen als Roboterbetätigungseinrichtung zum manuellen Betreiben des Roboters. Das Lehr-Bedienfeld 31 enthält eine Anzeigeeinheit 33 zum Darstellen von Informationen bezüglich des Roboters 1.
  • Die Anzeigeeinheit 33 dieses Ausführungsbeispieles ist als Bildschirm-Tastfeld ausgestaltet. Die Bedienungsperson kann zum Eingeben von Informationen den Bildschirm der Anzeigeeinheit 33 drücken oder über ihn streichen. Die Anzeigeeinheit 33 dieses Ausführungsbeispieles ist so gestaltet, dass eine Bedienungsperson mit einem Bild arbeiten kann, welches auf der Anzeigeeinheit 33 dargestellt wird. Somit hat die Anzeigeeinheit 33 dieses Ausführungsbeispieles eine Funktion zum Darstellen eines Bildes und auch eine Funktion als Eingabeeinheit zum Eingeben von Informationen.
  • In der Robotervorrichtung 5 ist ein Referenzkoordinatensystem 61 gesetzt (eingestellt), welches sich nicht bewegt, wenn die Position und die Orientierung des Roboters 1 geändert werden. Beim in 1 dargestellten Beispiel liegt der Ursprung 62 des Referenzkoordinatensystems 61 in der Basis 14 des Roboters 1. Das Referenzkoordinatensystem 61 wird auch als sogenanntes „Weltkoordinatensystem“ bezeichnet. Bei dem Referenzkoordinatensystem 61 ist die Position des Ursprungs 62 festgelegt und die Richtungen der Koordinatenachsen sind ebenfalls festgelegt. Das Referenzkoordinatensystem 61 hat als Koordinatenachsen eine X-Achse, eine Y-Achse und eine Z-Achse, welche senkrecht zueinander stehen. Weiterhin ist eine B-Achse als Koordinatenachse um die X-Achse herum vorgesehen; eine P-Achse als Koordinatenachse um die Y-Achse herum; und eine R-Achse als Koordinatenachse um die Z-Achse herum. Weiterhin können die Koordinatenwerte (xb, yb, zb, wb, pb, rb) im Referenzkoordinatensystem 61 einstellbar sein.
  • Die Steuervorrichtung 4 dieses Ausführungsbeispieles ist so ausgelegt, dass die Bedienungsperson die Roboterbetätigungseinrichtungen betätigt, um so die Position und Orientierung des Roboters 1 zu ändern. Die Steuervorrichtung 4 ist eingerichtet für eine manuelle Änderung von Position und Orientierung des Roboters 1. Die Bedienungsperson drückt die Tasten 34a, 34b in der Eingabeeinheit 32, um so die Position und die Orientierung des Roboters 1 auf Basis des vorgegebenen Koordinatensystems zu ändern. Bei diesem Ausführungsbeispiel werden diese Operationen als „Bewegungsoperationen“ bezeichnet. Die Tasten zum Ausführen der Bewegungsoperationen werden auch als „Bewegungstasten“ bezeichnet. Die Roboterbetätigungseinrichtungen müssen nicht auf Tasten beschränkt sein und es kann eine jegliche Einrichtung hierfür eingesetzt werden, mit der der Roboter manuell antreibbar ist.
  • Beim vorliegenden Ausführungsbeispiel wird ein Bewegungskoordinatensystem 63 zum Ausführen einer Bewegungsoperation des Roboters 1 eingestellt. Der Ursprung 64 des Bewegungskoordinatensystems 63 kann durch die Bedienungsperson an jeglicher Stelle eingestellt werden. Beispielsweise kann der Ursprung 64 in die Position des Werkzeugmittelpunktes des Arbeitswerkzeuges gesetzt werden. Bei dem in 1 gezeigten Beispiel ist der Ursprung 64 in den Werkzeugmittelpunkt der Hand 2 gelegt.
  • Das Bewegungskoordinatensystem 63 hat eine X-Achse, eine Y-Achse und eine Z-Achse, welche senkrecht zueinander stehen. Das Bewegungskoordinatensystem 63 hat eine W-Achse um die X-Achse, eine P-Achse um die Y-Achse und eine R-Achse um die Z-Achse (also Drehachsen). Somit hat das Bewegungskoordinatensystem 63 eine Mehrzahl von Koordinatenachsen.
  • Das Bewegungskoordinatensystem 63 ist ein Koordinatensystem, in dem die Position des Ursprunges 64 in dem Roboter 1 oder in der Hand 2 nicht geändert wird, wenn die Position und Orientierung des Roboters 1 geändert wird. Wenn bei dem in 1 gezeigten Beispiel die Position des Flansches 16 geändert wird, dann wird die Position des Ursprunges 64 geändert. Somit ändert sich die Position des Ursprunges 64 des Bewegungskoordinatensystems 63 entsprechend der Änderung der Position und Orientierung des Roboters 1. Andererseits ändert sich die Richtung des Bewegungskoordinatensystems 63 nicht, auch wenn die Position und Richtung des Roboters 1 geändert wird. Mit anderen Worten: die Richtung, in welcher sich die X-Achse erstreckt, die Richtung, in welcher sich die Y-Achse erstreckt und die Richtung, in welcher sich die Z-Achse erstreckt, werden nicht geändert, wenn sich die Position und Richtung des Roboters 1 ändern. Die Richtung des Bewegungskoordinatensystems 63 ist konstant mit Bezug auf die Richtung des Referenzkoordinatensystems 61.
  • Ein derartiges Bewegungskoordinatensystem 63 kann berechnet werden durch Konversion des Referenzkoordinatensystems 61. Beispielsweise wird die Position des Ursprungs 64 an den Koordinatenwert der X-Achse, den Koordinatenwert der Y-Achse und den Koordinatenwert der Z-Achse im Referenzkoordinatensystem 61 entsprechend der Position und Orientierung des Roboters 1 gesetzt. Die Richtung des Bewegungskoordinatensystems 63 kann an den Koordinatenwert der W-Achse, den Koordinatenwert der P-Achse und den Koordinatenwert der R-Achse im Referenzkoordinatensystem 61 gesetzt werden.
  • Die Tasten 34a in der Eingabeeinheit 32 des Lehr-Bedienfeldes 31 sind Tasten für eine Linearbewegung des Ursprunges 64 in Richtung der X-Achse, der Y-Achse und der Z-Achse des Bewegungskoordinatensystems. Die Bedienungsperson ändert die Position und Orientierung des Roboters 1 durch Drücken der Taste 34a so, dass der Ursprung 64 sich entlang der Koordinatenachse in dem Bewegungskoordinatensystem 63 bewegt. Drückt die Bedienungsperson beispielsweise die Taste 34a mit der Bezeichnung „X+“, ändern sich Position und Richtung des Roboters 1 so, dass der Ursprung 64 sich in Richtung der positiven Seite der X-Achse bewegt.
  • Die Tasten 34b dienen zum Antreiben (Lenken) des Roboters 1 derart, dass die Hand 2 oder der Roboter 1 in Richtungen der W-Achse um die X-Achse dreht, der P-Achse um die Y-Achse dreht und der R-Achse um die Z-Achse dreht. Die Bedienungsperson ändert Position und Richtung des Roboters 1 durch Drücken der Taste 34b, so dass der Flansch 16 der Hand 2 oder der Roboter 1 um die Koordinatenachse dreht, die durch den Ursprung 64 geht. Drückt beispielsweise die Bedienungsperson die Taste 34b mit „X+“, dann ändert sich die Position und Orientierung des Roboters so, dass die Hand 2 in positiver Richtung um eine Drehachse dreht, d.h. die X-Achse, die sich vom Ursprung 64 ausgehend erstreckt.
  • Im Bewegungsbetrieb ändert sich während der Zeitspanne, in welcher die Bedienungsperson die Tasten 34a, 34b drückt, die Position und Orientierung des Roboters 1. Andererseits kann vorab die Bewegungsstrecke pro Drückbetätigung der einzelnen Tasten festgelegt sein. Beim obigen Ausführungsbeispiel sind mechanische Tasten 34a, 34b an dem Lehr-Bedienfeld 31 angeordnet, jedoch besteht insoweit keine Beschränkung. Die Tasten können auf der Anzeigeeinheit 33 auch dargestellt sein. Die Bedienungsperson kann die Position und Orientierung des Roboters 1 dann durch Drücken des auf der Anzeigeeinheit 33 dargestellten Tastenfeldes ändern.
  • Die Position und Orientierung des Roboters 1 kann in einfacher Weise eingestellt werden durch Ausführung der Bewegungsoperation unter Verwendung des Bewegungskoordinatensystems 63. Beispielsweise kann die Richtung auf ein Werkstück eingestellt werden in positiver Richtung der X-Achse im Bewegungskoordinatensystem. Die Bedienungsperson kann den Werkzeugmittelpunkt entsprechend dem Ursprung 64 in Richtung auf das Werkstück bewegen durch Drücken der Taste 34a auf der positiven Seite bezüglich der X-Achse in der Eingabeeinheit 32. Wenn somit der Roboter 1 manuell gelenkt wird, kann er in eine gewünschte Position und Richtung in kurzer Zeit gebracht werden. Im Ergebnis wird die Effizienz beim Betrieb für das Einstellen von Lehrpunkten bezüglich des Roboters 1 verbessert.
  • Entsprechend 2 enthält der Hauptkörper 3 der Steuervorrichtung 4 dieses Ausführungsbeispieles eine Bewegungssteuereinheit 51 zum Steuern der Bewegungsoperation. Die Bewegungssteuereinheit 51 hat eine Anzeigensteuereinheit 52 zum Steuern eines Bildes, welches auf der Anzeigeeinheit 33 dargestellt wird. Die Bewegungssteuereinheit 51 hat eine manuelle Steuereinheit 53 zum Ändern der Position und der Richtung des Roboters 1 auf Basis der Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 in dem Bild, welches auf der Anzeigeeinheit 33 dargestellt wird.
  • 4 zeigt ein erstes Bild, welches auf der Anzeigeeinheit der Lehr-Bedienfeld bei diesem Ausführungsbeispiel dargestellt wird. Die Anzeigesteuereinheit 52 dieses Ausführungsbeispieles ist so ausgestaltet, dass ein Bild 71 des Roboters 1 und das Bewegungskoordinatensystem 63 auf der Anzeigeeinheit 33 dargestellt werden. Bei diesem Beispiel zeigt die Anzeigeeinheit 33 in drei Dimensionen ein Bild einschließlich des Roboters 1 und des Bewegungskoordinatensystems 63. Das auf der Anzeigeeinheit 33 dargestellte Bild kann auch weitere Gegenstände außer dem Roboter 1 und dem Bewegungskoordinatensystem 63 zeigen.
  • Entsprechend den 2 und 4 gibt die Bedienungsperson vorab ein dreidimensionales Modell 49 des Roboters 1 und der Hand 2 in die Steuervorrichtung 4. Als dreidimensionales Modell 49 kann beispielsweise ein solches Modell dienen, welches durch ein CAD-System (computergestützte Konstruktion) erzeugt ist. Die dreidimensionalen Daten bezüglich des Roboters enthalten Formdaten der Komponenten des Roboters 1. Die Daten zum Anzeigen dreidimensionaler Größen auf der Anzeigeeinheit sind nicht auf ein solches dreidimensionales Modell beschränkt und es können jegliche passende Daten hierfür verwendet werden. Beispielsweise kann das dreidimensionale Modell in der Steuervorrichtung erstellt werden unter Verwendung zweidimensionaler Zeichnungsdaten, die mit einer CAD-Anlage gewonnen werden.
  • Die Anzeigesteuereinheit 52 zeigt den Roboter 1 auf der Anzeigeeinheit 33 auf Basis des dreidimensionalen Modells 49. Die Anzeigesteuereinheit 52 berechnet die Position und Orientierung des Roboters 1 auf Basis des Ausgangssignals des Positionsdetektors 18. Die Anzeigesteuereinheit 52 zeigt das Bild des Roboters 1 gemäß der momentanen Position und Orientierung auf der Anzeigeeinheit 33 an. Entsprechend einer Änderung der momentanen Position und Orientierung des Roboters 1 ändern sich auch Position und Orientierung des Roboters 1 in dem Bild 71.
  • Die Anzeigesteuereinheit 52 zeigt das Bewegungskoordinatensystem 63 in drei Dimensionen. Die Anfangsposition und die Anfangsrichtung des Bewegungskoordinatensystems 63 sind vorab festgelegt. Wählt die Bedienungsperson eine Bewegungsoperation in dem Lehr-Bedienfeld 31, wird das Bewegungskoordinatensystem 63 in dem Bild 71 an der Anfangsposition und in der Anfangsrichtung dargestellt. Beim vorliegenden Ausführungsbeispiel wird das Bewegungskoordinatensystem 63 so dargestellt, dass die X-Achse und die Y-Achse parallel zu dem Rahmen der Anzeigeeinheit 33 ausgerichtet sind und die Z-Achse ist in einer Richtung senkrecht zum Bildschirm der Anzeigeeinheit 33 ausgerichtet.
  • Wie oben beschrieben, ist die Position des Ursprungs 64 des aktuellen Bewegungskoordinatensystems 63 im Voraus festgelegt. Beim vorliegenden Ausführungsbeispiel ist der Ursprung 64 in den Werkzeugmittelpunkt gelegt. Andererseits kann in dem Bild 71 ein Ursprung 66 des Bewegungskoordinatensystems 63 an jegliche Stelle gelegt werden. Mit anderen Worten: in dem Bild 71 kann das Bewegungskoordinatensystem 63 an jeglicher Position dargestellt werden. Beim Beispiel gemäß 4 ist auf der Oberfläche des Flansches 16 des Roboters 1 der Ursprung 66 in die Mitte der Drehung des Flansches 16 gelegt. Führt die Bedienungsperson Operationen auf dem Lehr-Bedienfeld 31 aus, wird der Roboter 1 angetrieben auf Basis der Position des Ursprungs 64 des aktuellen Bewegungskoordinatensystems 63, unabhängig von der Position des Ursprungs 66 des Bewegungskoordinatensystems 63 in dem Bild 71.
  • Die Eingabeeinheit 32 der Steuervorrichtung 4 hat eine Bildbetätigungseinrichtung, mit welcher die Bedienungsperson das auf der Anzeigeeinheit 33 dargestellte Bild bearbeitet. Beim vorliegenden Ausführungsbeispiel hat die berührungsempfindliche Anzeigeeinheit 33 die Funktion der Eingabeeinheit. Die Anzeigeeinheit 33 ist so ausgebildet, dass die Bedienungsperson das Bild durch Kontaktierung der Oberfläche der Anzeigeeinheit 33 bearbeiten kann. Somit dient die Anzeigeeinheit 33 dieses Ausführungsbeispieles als Bildbetätigungseinrichtung.
  • Die Steuervorrichtung 4 ist so ausgebildet, dass die Bedienungsperson die Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 in dem Bild 71 ändern kann durch Bearbeitung der Anzeigeeinheit 33. Die Anzeigesteuereinheit 52 dieses Ausführungsbeispieles zeigt ein Bild des Roboters 1 von einem bestimmten Standpunkt aus, welcher um einen vorgegebenen Punkt entsprechend der Eingabe der Bedienungsperson dreht. Beispielsweise kann das Drehzentrum gelegt werden in einen Bereich, in welchem der Roboter 1 angeordnet ist, so dass der Standpunkt sich um den Roboter 1 bewegt.
  • Die Bedienungsperson kann die Anzeigesteuereinheit 52 veranlassen, die Richtung des Roboters 1 in dem Bild 71 zu ändern, und zwar durch Streichen über die Oberfläche der Anzeigeeinheit 33 mit einem Finger. Andererseits kann die Anzeigesteuereinheit 52 die Position des Standpunktes, von dem aus der Roboter 1 gesehen wird, ändern. Der Ursprung 66 des Bewegungskoordinatensystems 63 in dem Bild 71 bewegt sich entsprechend der Bewegung der zuvor festgelegten Position. Andererseits ist die Richtung des Bewegungskoordinatensystems 63 in dem Bild 71 unverändert und konstant. Somit ist die Richtung des Bewegungskoordinatensystems 63 in dem Bild 71 fest. Die Bewegungssteuereinheit 51 dieses Ausführungsbeispieles berechnet die Position des Bewegungskoordinatensystems 63 und die Richtung in Bezug auf den Roboter 1 so, dass die in dem Bild erscheinende Richtung des Bewegungskoordinatensystems festliegt entsprechend der Drehung des Bildes des Roboters 1. Die Anzeigesteuereinheit 52 zeigt das Bild des Bewegungskoordinatensystems 63 auf Basis dieses Rechenergebnisses.
  • Beispielsweise kann die Bedienungsperson den Standpunkt (also den Ausgangspunkt für den Blickwinkel der Darstellung) in Höhenrichtung drehen durch Streichen der Oberfläche der Anzeigeeinheit 32 in der durch den Pfeil 91 angegebenen Richtung. Weiterhin kann die Bedienungsperson den Standpunkt in horizontaler Richtung drehen durch Streichen der Oberfläche der Anzeigeeinheit 33 in der durch den Pfeil 92 angegebenen Richtung. Somit kann man die Position (der Standpunkt der Ansicht), aus welcher der Roboter 1 gesehen wird, willkürlich einstellen.
  • 5 zeigt ein zweites Bild des Roboters und des Bewegungskoordinatensystems. Das zweite Bild 72 wird gewonnen, wenn die Bedienungsperson das Bild so ändert, dass die Position des Standpunktes eine Ansicht des Roboters 1 von oben ergibt. In dem zweiten Bild 72 ist, wie durch den Pfeil 93 in 1 angezeigt, der Roboter 1 von einem Standpunkt 87 direkt oberhalb des Roboters 1 gesehen.
  • 6 zeigt ein drittes Bild des Roboters und des Bewegungskoordinatensystems. Das dritte Bild 73 wird gewonnen, wenn die Bedienungsperson die Darstellung des Roboters 1 ändert durch Streichen über die Oberfläche mit dem Finger in eine Richtung, die im Bild 72 in 5 mit dem Pfeil 91 angegeben ist. In dem Bild 73 dreht die Richtung des Roboters 1 um die X-Achse des Bewegungskoordinatensystems 63 gemäß dem Bild 72. Das dritte Bild 73 wird gewonnen, wenn der Roboter 1 von einem Standpunkt 88 aus gesehen wird, der auf der Seite des Roboters 1 angeordnet ist, wie durch den Pfeil 94 in 1 vorgegeben.
  • 7 zeigt ein viertes Bild des Roboters und des Bewegungskoordinatensystems. Das vierte Bild 74 wird gewonnen, wenn die Bedienungsperson das Bild des Roboters 1 durch Streichen mit dem Finger in die Richtung bewegt, die in dem Bild 73 gemäß 6 durch den Pfeil 92 angezeigt ist. Die Bedienungsperson bearbeitet das Bild so, dass der Standpunkt so geändert wird, dass der Roboter 1 von vorne gesehen wird. Die Richtung des Roboters 1 ist geändert in die Richtung um die Y-Achse in dem Bild des Roboters 1 gemäß 6. Das vierte Bild 74 ist gewonnen bei Ansicht des Roboters 1 vom Standpunkt 89, der vor dem Roboter 1 liegt, wie durch den Pfeil 95 in 1 angezeigt ist.
  • Gemäß den Erläuterungen zu den 4 bis 7 arbeitet die Bedienungsperson mit dem auf der Anzeigeeinheit 33 dargestellten Bild so, dass die Richtung des Roboters 1 in eine willkürlich einstellbare Richtung geändert wird. Die Richtung des Bewegungskoordinatensystems 63 in den Bildern 71, 72, 73, 74 ist immer konstant. Mit anderen Worten: die X-Achse erstreckt sich zur rechten Seite des Bildes, die Y-Achse erstreckt sich zur oberen Seite und die Z-Achse erstreckt sich zur Vorderseite des Bildes.
  • Auf diese Weise ändert die Anzeigesteuereinheit 52 das Bild so, dass die Richtung des Roboters 1 geändert wird, während die Richtung des Bewegungskoordinatensystems 63 fixiert ist. Bei diesem Ausführungsbeispiel wird die Position des Standpunktes, von dem aus der Roboter 1 gesehen wird, geändert. Im Ergebnis wird die Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 geändert.
  • Entsprechend den 2 und 3 enthält die Bewegungssteuereinheit 51 die manuelle Steuereinheit 53 zum Ändern von Position und Richtung des Roboters 1 auf Basis der Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 in dem Bild, welches auf der Anzeigeeinheit 33 dargestellt wird. Die Richtung, in welcher sich die Koordinatenachse des Bewegungskoordinatensystems in Bezug auf den Roboter 1 in dem gerade dargestellten Bild erstreckt, entspricht der Richtung, in welcher der Roboter 1 tatsächlich angetrieben wird.
  • Die Bedienungsperson wählt eine Bewegungsoperation aus auf Basis des Bewegungskoordinatensystems unter Verwendung der Eingabeeinheit 32. Die manuelle Steuereinheit 53 detektiert die Betätigung der Tasten 34a, 34b durch die Bedienungsperson. Mit anderen Worten: die manuelle Steuereinheit 53 detektiert diejenigen Tasten 34a, 34b der Eingabeeinheit 32, welche gedrückt werden.
  • Die manuelle Steuereinheit 53 wählt eine Antriebsachse, gemäß welcher der Roboter 1 angetrieben wird und berechnet den Bewegungsbetrag bezüglich der Antriebsachse auf Basis der Betätigung der Tasten 34a, 34b durch die Bedienungsperson und das auf der Anzeigeeinheit 33 angezeigte Bild. Wenn beispielsweise der Roboter 1 sechs Achsen hat, wählt die manuelle Steuereinheit 53 eine oder mehrere Antriebsachsen und berechnet den Antriebsbetrag für jede Antriebsachse. Die manuelle Steuereinheit 53 überträgt einen Bewegungsbefehl für die ausgewählte Antriebsachse und den Antriebsbetrag zur Bewegungssteuereinheit 43. Die Bewegungssteuereinheit 43 treibt die Roboterantriebsvorrichtung entsprechend dem empfangenen Bewegungsbefehl. Im Ergebnis werden Position und Orientierung des Roboters 1 geändert.
  • Die manuelle Steuereinheit 53 steuert die Position und die Orientierung des Roboters 1 so, dass der Roboter 1 in Richtung entsprechend der gedrückten Taste angetrieben wird. Mit anderen Worten: die manuelle Steuereinheit 53 ändert die Position und die Orientierung des Roboters 1 derart, dass der Ursprung 64 des Bewegungskoordinatensystems 63 in Richtung der Koordinatenachse entsprechend der gedrückten Taste 34a bewegt wird. Die manuelle Steuereinheit 53 steuert die Position und die Orientierung des Roboters 1 so, dass die Hand 2 oder der Roboter 1 in Richtung der Koordinatenachse entsprechend der Taste 34b gedreht wird. Drückt die Bedienungsperson beispielsweise die Taste 34a mit der Angabe „X+“ der Eingabeeinheit 32, ändert die manuelle Steuereinheit 53 die Position und die Orientierung des Roboters 1 so, dass der Ursprung 64 des Bewegungskoordinatensystems 63 in positiver Richtung der X-Achse, die auf der Anzeigeeinheit 33 angezeigt wird, bewegt wird. Die Anzeigesteuereinheit 52 ändert das Bild des Roboters 1 in die gegebene Position und Orientierung des Roboters 1 auf Basis des Ausgangs des Positionsdetektors 18.
  • 8 zeigt ein fünftes Bild des Roboters und des Bewegungskoordinatensystems. 8 zeigt einen Zustand, nachdem die Bedienungsperson im Zustand gemäß 5 die Taste 34a mit „Y+“ drückt. Die Position des Ursprungs 66 des Bewegungskoordinatensystems 63 bewegt sich positiv in Richtung der Y-Achse gemäß dem Pfeil 96. Das Bild des Roboters 1 ändert sich entsprechend der Änderung der Position und Orientierung des Roboters 1. Dabei ist die Richtung des Bewegungskoordinatensystems 63 in dem Bild 72 konstant.
  • Die Bedienungsperson führt die Bewegungsoperation aus, wodurch das Bild auf der Anzeigeeinheit 33 entsprechend der aktuellen Position und Orientierung des Roboters 1 geändert werden kann. Die Bedienungsperson kann Position und Orientierung des Roboters 1 ändern durch Drücken der gewünschten Tasten 34a, 34b. Andererseits kann die Bedienungsperson die Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 ändern durch Streichen der Oberfläche der Anzeigeeinheit 33. Werden die Tasten 34a, 34b gedrückt, kann die Position und Orientierung des Roboters 1 auf Basis der Richtung des Bewegungskoordinatensystems 63 gemäß Anzeige auf der Anzeigeeinheit 33 geändert werden. Damit kann die Bedienungsperson den Bewegungsbetrieb ausführen mit Änderung der Richtung des Bewegungskoordinatensystems. Wenn die Bedienungsperson den Bewegungsbetrieb beendet, kann die Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 wieder in die Ausgangsrichtung gebracht werden.
  • 9 ist ein Flussdiagramm der Steuerung des Bildes der Anzeigeeinheit gemäß diesem Ausführungsbeispiel. Gemäß den 2 und 9 wählt die Bedienungsperson die Bewegungsoperation auf Basis des Bewegungskoordinatensystems 63 mittels des Lehr-Bedienfeldes 31. Beispielsweise drückt die Bedienungsperson eine Taste zum Auswählen der Bewegungsoperation. Die Bewegungssteuereinheit 51 detektiert ein Signal, welches anzeigt, dass die Bewegungsoperation auf Basis des Bewegungskoordinatensystems ausgewählt worden ist.
  • In Schritt 101 zeigt die Anzeigesteuereinheit 52 ein dreidimensionales Bild des Roboters 1 auf der Anzeigeeinheit 33. In Schritt 102 zeigt die Anzeigesteuereinheit 52 das dreidimensionale Bild des Bewegungskoordinatensystems zusammen mit dem Bild des Roboters 1 auf der Anzeigeeinheit 33. Die Anzeigesteuereinheit 52 zeigt die Bilder des Roboters 1 und des Bewegungskoordinatensystems 63 auf Basis der vorgegebenen Anfangsposition und Anfangsrichtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1.
  • Anschließend ermittelt in Schritt 103 die Anzeigesteuereinheit 52, ob der Standpunkt durch eine Maßnahme der Bedienungsperson bewegt ist oder nicht. Mit anderen Worten: es wird festgestellt, ob die Bedienungsperson die Richtung des Roboters 1 in dem Bild durch Bearbeitung des Bildes ändert. Wenn in Schritt 103 festgestellt wird, dass die Bedienungsperson den Standpunkt nicht geändert hat, geht das Verfahren zu Schritt 105. Wenn in Schritt 103 festgestellt wurde, dass die Bedienungsperson den Standpunkt geändert hat, geht das Verfahren zu Schritt 104.
  • In Schritt 104 ändert die Anzeigesteuereinheit 52 die Richtung des Roboters 1 im Bild entsprechend der Bewegung des Standpunktes. Dabei führt die Anzeigesteuereinheit 52 eine Steuerung so aus, dass die Richtung des Bewegungskoordinatensystems 63 in dem Bild sich nicht ändert.
  • Anschließend ermittelt in Schritt 105 die Anzeigesteuereinheit 52, ob ein Endbefehl für die Bewegungsoperation detektiert wird oder nicht. Mit anderen Worten: es wird ermittelt, ob die Bedienungsperson die Auswahl des Bewegungsbetriebs entsprechend der Bewegungskoordinate aufhebt oder nicht. Wenn in Schritt 105 ein Endbefehl bezüglich der Bewegungsoperation nicht detektiert wird, geht die Steuerung zurück zu Schritt 103. Die Abläufe gemäß Schritt 103 und Schritt 104 werden wiederholt, so dass die Orientierung des Bildes des Roboters 1 geändert wird. Die Bedienungsperson drückt die Tasten 34a, 34b der Eingabeeinheit 32 während der Zeit, in welcher die Schritte 103 bis 105 ausgeführt werden, so dass der Roboter 1 angetrieben werden kann auf Basis der Orientierung des mit dem Bild angezeigten Bewegungskoordinatensystems 63.
  • Wenn in Schritt 105 ein Endbefehl für die Bewegungsoperation detektiert wird, geht das Steuerverfahren zu Schritt 106. In Schritt 106 führt die Anzeigesteuereinheit 52 die Einstellungen des Bewegungskoordinatensystems 63 zurück zu den Anfangswerten. Die Anzeigesteuereinheit 52 führt die Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 zurück auf die Anfangsrichtung.
  • Auf diese Weise kann die Bedienungsperson die Richtung der Koordinatenachsen des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 einfach ändern durch Bearbeitung des Bildes auf der Anzeigeeinheit 33. Insbesondere kann während der Zeitspanne, in welcher der Roboter 1 manuell betrieben wird, die Richtung des Bewegungskoordinatensystems 63 geändert werden. So lässt sich das Bewegungskoordinatensystem in einfacher Weise einstellen. Weiterhin kann die Bedienungsperson ein neues Bewegungskoordinatensystem für eine kurze Zeitspanne setzen. Somit wird die Betriebseffizienz beim manuellen Betreiben des Roboters verbessert. Das Bewegungskoordinatensystem kann auf Basis des Bildes des Roboters und des Bewegungskoordinatensystems gesetzt werden, so dass Fehler beim Setzen des Bewegungskoordinatensystems vermieden werden können.
  • Die Anzeigesteuereinheit 52 dreht die Position des Standpunktes entsprechend Eingaben der Bedienungsperson. Die Anzeigesteuereinheit 52 zeigt das Bild, welches gewonnen wird, wenn der Roboter 1 vom gegebenen Standpunkt aus gesehen wird. Bewegt sich der Standpunkt, ändert sich die Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1, wodurch die Bedienungsperson in einfacher Weise die Richtung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 ändern kann.
  • Bei den obigen ersten bis dritten Bildern bewegt sich die Position des Ursprunges 66 des Bewegungskoordinatensystems 63 in dem Bild zusammen mit der Bewegung des Standpunktes (der Perspektive). Mit anderen Worten: der Ursprung 64 ist auf der Oberfläche des Flansches 16 des Handgelenks 15 des Roboters 1 angeordnet, jedoch sind die Ausführungsbeispiele nicht hierauf beschränkt. In dem Bild kann die Position des Ursprunges 64 fixiert sein. Beispielsweise kann das Bewegungskoordinatensystem immer an der unteren linken Seite des Bildes dargestellt werden. Auch in diesem Falle ändern sich Position und Orientierung des Roboters 1 auf Basis der Position des Ursprunges 64 des Bewegungskoordinatensystems 63, welches in Bezug auf den momentanen Roboter 1 eingestellt ist.
  • Bei obigem Ausführungsbeispiel kann die Bedienungsperson die Richtung des Bildes des Roboters 1 ändern durch Streichen der Oberfläche der Anzeigeeinheit 33, jedoch ist das Ausführungsbeispiel nicht hierauf beschränkt. Eine jegliche Eingabe in die Bildbetätigungseinrichtung kann vorgesehen sein, die Richtung des Bildes des Roboters zu ändern. Beispielsweise kann eine Tastatur als Bildbetätigungseinrichtung in der Eingabeeinheit vorgesehen sein. Die Richtung des Bildes kann dann entsprechend der Betätigung einzelner (mechanischer) Tasten geändert werden.
  • Bei obigem Ausführungsbeispiel zeigt die Anzeigesteuereinheit 52 das Bild so an, dass der Standpunkt um einen vorgegebenen Punkt als Zentrum um den Roboter 1 dreht, jedoch sind die Ausführungsbeispiele nicht darauf beschränkt. Die Anzeigesteuereinheit 52 kann jegliche Operation bezüglich des Standpunktes ausführen. Beispielsweise kann die Anzeigesteuereinheit 52 den Standpunkt bezüglich des Roboters linear bewegen. Andererseits kann die Anzeigesteuereinheit 52 auch die Größe des Bildes des Roboters vergrößern oder verkleinern entsprechend Eingaben der Bedienungsperson in die Eingabeeinheit 32.
  • Bei obigem Ausführungsbeispiel kehrt die Einstellung des Bewegungskoordinatensystems 63 nach Abschluss jeder Bewegungsoperation in die Ausgangslage zurück, jedoch sind die Ausführungsbeispiele nicht darauf beschränkt. Das Bewegungskoordinatensystem 63, welches am Ende der Bewegungsoperation eingestellt ist oder welches in der Zeitspanne bei Ausführung der Bewegungsoperation wirksam ist, kann in der Speichereinheit 42 abgespeichert werden. Die Bedienungsperson kann das in der Speichereinheit 42 abgespeicherte Bewegungskoordinatensystem auswählen, wenn die Bewegungsoperation startet oder auch in der Zeitspanne, in welcher die Bewegungsoperation ausgeführt wird. Die Anzeigesteuereinheit 52 kann das Bewegungskoordinatensystem 63, welches in der Speichereinheit 42 abgespeichert ist, gewinnen und auf der Anzeigeeinheit 33 anzeigen. Mit dieser Steuerung kann ein jegliches Bewegungskoordinatensystem 63 abgespeichert werden und die Orientierung des Bewegungskoordinatensystems 63 in Bezug auf den Roboter 1 kann in einfacher Weise eingestellt werden, obwohl das Bild auf der Anzeigeeinheit 33 dabei nicht bearbeitet wird. Beispielsweise wird die Einstellung des Bewegungskoordinatensystems 63, welche häufig benutzt wird, abgespeichert, wodurch das Bewegungskoordinatensystem 63 schnell aufrufbar ist und die Bearbeitungseffizienz verbessert wird.
  • Bei obigem Ausführungsbeispiel steuert die Anzeigesteuereinheit 52 das Bild so, dass die Richtung des Roboters 1 in dem Bild sich ändert entsprechend Eingaben der Bedienungsperson in die Bildbetätigungseinrichtung und die Richtung des Bewegungskoordinatensystems ist fixiert, jedoch sind die Ausführungsbeispiele nicht darauf beschränkt. Die Anzeigesteuereinheit kann das Bild so steuern, dass die Richtung des Roboters sich nicht ändert entsprechend einer Eingabe der Bedienungsperson in die Bildbetätigungseinrichtung und die Richtung des Bewegungskoordinatensystems wird geändert. Wenn diesbezüglich die Bedienungsperson die entsprechende Taste der Eingabeeinheit betätigt, kann die manuelle Steuereinheit den Roboter antreiben auf Basis der Richtung des Bewegungskoordinatensystems in Bezug auf den Roboter in dem gerade dargestellten Bild. Somit kann die Anzeigesteuereinheit das Bild so ändern, dass die Richtung des Bewegungskoordinatensystems oder des Roboters fixiert ist, während die andere Richtung entsprechend einer Eingabe der Bedienungsperson in die Eingabeeinheit sich ändert.
  • Der Betrieb mit manuellem Antrieb des Roboters 1 ist nicht auf die Operationen zum Einstellen der Lehrpunkte beschränkt. Der Roboter 1 kann manuell betätigt werden für jeglichen Zweck. Beispielsweise kann bei Transport eines Werkstückes um den Roboter herum der obere Arm des Roboters ein Hindernis sein. Dann kann die Position und Orientierung des Roboters zeitweise geändert werden, um die Richtung des oberen Armes zu ändern.
  • Bei obigem Ausführungsbeispiel sind die Anzeigeeinheit 33 und die Eingabeeinheit 32 auf dem Lehr-Bedienfeld 31 angeordnet, jedoch sind die Ausführungsbeispiele nicht darauf beschränkt. Zumindest eine dieser Einheiten kann auf einer Einrichtung angeordnet sein, die verschieden ist von dem Lehr-Bedienfeld 31. Auch kann die Einrichtung, auf welcher die Anzeigeeinheit und die Eingabeeinheit angeordnet sind, verschieden sein vom Lehr-Bedienfeld, welches für den betreffenden Roboter vorgesehen ist; vielmehr kann jegliche Einrichtung hierfür vorgesehen sein, welche mit einer Anzeigeeinheit und einer Eingabeeinheit zum Ausführen der Bewegungsoperation des Roboters ausgerüstet ist. Beispielsweise kann ein tragbarer Rechner, wie ein sogenanntes Tablet, die Funktionen einer Anzeigeeinheit und einer Eingabeeinheit in geeigneter Form für ein Ausführungsbeispiel aufweisen.
  • Die Robotersteuervorrichtung gemäß Merkmalen dieser Beschreibung kann in einfacher Weise das Bewegungskoordinatensystem ändern.
  • Bei jedem der oben erwähnten Steuerungsvorgänge kann die Reihenfolge der Schritte in passender Weise innerhalb des Rahmens der genannten Funktionen und Wirkungen geändert werden. Die obigen Ausführungsbeispiele können passend miteinander kombiniert werden. In jeder der oben beschriebenen Figuren betreffen die gleichen Bezugszeichen gleiche oder ähnliche Komponenten.

Claims (3)

  1. Robotersteuervorrichtung, aufweisend: eine Anzeigeeinheit (33) zum Anzeigen eines dreidimensionalen Bildes (71, 72, 73, 74) mit einem Bewegungskoordinatensystem (63) zum Ausführen einer Bewegungsoperation und mit einem Roboter (1); eine Eingabeeinheit (32, 33) mit einer Roboterbetätigungseinrichtung (34a, 34b) entsprechend Koordinatenachsen des Bewegungskoordinatensystems; eine Anzeigesteuereinheit (52) zum Steuern des auf der Anzeigeeinheit dargestellten Bildes; und eine manuelle Steuereinheit (53) zum Detektieren einer Betätigung der Roboterbetätigungseinrichtung zur Änderung der Position und der Orientierung des Roboters entsprechend der Betätigung der Roboterbetätigungseinrichtung, wobei die Eingabeeinheit eine Bildbetätigungseinrichtung (33) aufweist, mit der eine Bedienungsperson das Bild auf der Anzeigeeinheit bearbeiten kann; die Anzeigesteuereinheit das Bild so ändert, dass die Richtung des Bewegungskoordinatensystems oder die Richtung des Roboters fixiert ist, während die dabei nicht fixierte Richtung des Bewegungskoordinatensystems bzw. des Roboters entsprechend einer Eingabe der Bedienungsperson in die Bildbetätigungseinrichtung geändert wird; und wobei dann, wenn die Bedienungsperson die Roboterbetätigungseinrichtung betätigt, die manuelle Steuereinheit die Position und Orientierung des Roboters auf Basis einer Richtung des Bewegungskoordinatensystems in Bezug auf den Roboter in dem Bild ändert.
  2. Robotersteuervorrichtung gemäß Anspruch 1, aufweisend: eine Speichereinheit (42) zum Speichern der Richtung des Bewegungskoordinatensystems in Bezug auf den Roboter, welche durch die Betätigung der Bildbetätigungseinrichtung geändert wurde, wobei die Anzeigesteuereinheit die Richtung des Bewegungskoordinatensystems in Bezug auf den Roboter, welche in der Speichereinheit abgespeichert ist, gewinnt und das Bild anzeigt.
  3. Robotersteuervorrichtung gemäß einem der Ansprüche 1 oder 2, wobei die Anzeigesteuereinheit das Bild des Roboters aus der Perspektive eines Standpunktes (87, 88, 89) anzeigt, welcher um einen vorgegebenen Punkt als Zentrum entsprechend einer Eingabe der Bedienungsperson gedreht wird.
DE102018009025.7A 2017-11-24 2018-11-16 Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems Active DE102018009025B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-226117 2017-11-24
JP2017226117A JP6683671B2 (ja) 2017-11-24 2017-11-24 ジョグ座標系を設定するロボットの制御装置

Publications (2)

Publication Number Publication Date
DE102018009025A1 DE102018009025A1 (de) 2019-05-29
DE102018009025B4 true DE102018009025B4 (de) 2023-10-12

Family

ID=66442373

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018009025.7A Active DE102018009025B4 (de) 2017-11-24 2018-11-16 Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems

Country Status (4)

Country Link
US (1) US10807240B2 (de)
JP (1) JP6683671B2 (de)
CN (1) CN109834709B (de)
DE (1) DE102018009025B4 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6579498B2 (ja) * 2017-10-20 2019-09-25 株式会社安川電機 自動化装置及び位置検出装置
JP6683671B2 (ja) * 2017-11-24 2020-04-22 ファナック株式会社 ジョグ座標系を設定するロボットの制御装置
JP6730247B2 (ja) * 2017-11-28 2020-07-29 ファナック株式会社 ロボット操作装置
DE102019211270B3 (de) * 2019-07-30 2020-11-26 Kuka Deutschland Gmbh Steuern eines Roboters
CN110434856B (zh) * 2019-08-23 2021-04-20 珠海格力电器股份有限公司 一种焊接控制方法、装置、存储介质及焊接机器人
JP7395990B2 (ja) * 2019-11-25 2023-12-12 セイコーエプソン株式会社 教示装置、制御方法および教示プログラム
CN112894857B (zh) * 2021-03-02 2024-04-09 路邦科技授权有限公司 一种医院临床辅助机器人的控键方法
CN114890149A (zh) * 2022-04-26 2022-08-12 江西嘉鑫陶瓷有限公司 一种泥条码垛机操作系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916260A (ja) 1995-06-30 1997-01-17 Fanuc Ltd ロボットの簡易ジョグ座標系の設定方法
JPH10291183A (ja) 1997-04-18 1998-11-04 Yaskawa Electric Corp ロボット言語処理装置
EP1510893A1 (de) 2003-09-01 2005-03-02 Trumpf Werkzeugmaschinen GmbH + Co. KG Verfahren und Vorrichtung zum Festlegen der Bewegungsbahn eines Handling-systems
JP2006142480A (ja) 2006-02-23 2006-06-08 Fanuc Ltd ロボット教示操作盤
DE69735269T2 (de) 1996-07-24 2006-07-27 Fanuc Ltd., Oshino Steuerverfahren zum schrittbetrieb eines roboters
JP2011189431A (ja) 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム
JP2017019068A (ja) 2015-07-14 2017-01-26 セイコーエプソン株式会社 教示装置、ロボット、及びロボットシステム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5239159A (en) * 1990-05-31 1993-08-24 Fanuc Ltd. Nozzle movement system for laser machining equipment
JPH07295625A (ja) * 1994-04-28 1995-11-10 Fanuc Ltd ロボットのジョグ送り情報表示装置
JP4714086B2 (ja) * 2006-06-14 2011-06-29 株式会社ユーシン精機 コントローラ
JP5971842B2 (ja) 2012-03-26 2016-08-17 株式会社ダイヘン ロボット制御装置
WO2014013605A1 (ja) 2012-07-20 2014-01-23 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
JP5716769B2 (ja) * 2013-02-21 2015-05-13 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
US9958862B2 (en) * 2014-05-08 2018-05-01 Yaskawa America, Inc. Intuitive motion coordinate system for controlling an industrial robot
JP6679846B2 (ja) 2015-06-02 2020-04-15 セイコーエプソン株式会社 教示装置およびロボットシステム
JP2018094648A (ja) * 2016-12-09 2018-06-21 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP2018094654A (ja) * 2016-12-09 2018-06-21 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6683671B2 (ja) * 2017-11-24 2020-04-22 ファナック株式会社 ジョグ座標系を設定するロボットの制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916260A (ja) 1995-06-30 1997-01-17 Fanuc Ltd ロボットの簡易ジョグ座標系の設定方法
DE69735269T2 (de) 1996-07-24 2006-07-27 Fanuc Ltd., Oshino Steuerverfahren zum schrittbetrieb eines roboters
JPH10291183A (ja) 1997-04-18 1998-11-04 Yaskawa Electric Corp ロボット言語処理装置
EP1510893A1 (de) 2003-09-01 2005-03-02 Trumpf Werkzeugmaschinen GmbH + Co. KG Verfahren und Vorrichtung zum Festlegen der Bewegungsbahn eines Handling-systems
JP2006142480A (ja) 2006-02-23 2006-06-08 Fanuc Ltd ロボット教示操作盤
JP2011189431A (ja) 2010-03-12 2011-09-29 Denso Wave Inc ロボットシステム
JP2017019068A (ja) 2015-07-14 2017-01-26 セイコーエプソン株式会社 教示装置、ロボット、及びロボットシステム

Also Published As

Publication number Publication date
US20190160671A1 (en) 2019-05-30
DE102018009025A1 (de) 2019-05-29
CN109834709B (zh) 2021-04-16
US10807240B2 (en) 2020-10-20
JP2019093494A (ja) 2019-06-20
JP6683671B2 (ja) 2020-04-22
CN109834709A (zh) 2019-06-04

Similar Documents

Publication Publication Date Title
DE102018009025B4 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
DE102018009023B4 (de) Einlernvorrichtung zum Ausführen von Robotereinlernvorgängen und Einlernverfahren
DE69925204T2 (de) Robotersteuerung
DE102015105687B4 (de) Roboter
DE102015107436B4 (de) Lernfähige Bahnsteuerung
EP2223191B1 (de) Industrieroboter und verfahren zum programmieren eines industrieroboters
EP2987592B1 (de) Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter
DE112016004725B4 (de) Verfahren zum Teach-ln eines Roboters und Roboterarmsteuervorrichtung
DE69735269T2 (de) Steuerverfahren zum schrittbetrieb eines roboters
DE102008027008B4 (de) Verfahren und Vorrichtung zum Steuern eines Manipulators
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
EP2546711B2 (de) Verfahren zum Programmieren eines Roboters
DE102007026299B4 (de) Industrieroboter und Verfahren zum Programmieren eines Industrieroboters
EP1950010A2 (de) Roboter und Verfahren zum Programmieren eines Roboters
EP2008778B1 (de) Verfahren und Vorrichtung zum Programmieren eines Industrieroboters
DE102018129292B4 (de) Handprogrammiergerät und Robotersteuersystem
EP3221094B1 (de) Verfahren und system zur korrektur einer bearbeitungsbahn eines robotergeführten werkzeugs
DE102014118001A1 (de) Verfahren zur Bewegungssimulation eines Manipulators
DE102019006725A1 (de) Steuereinrichtung und Steuersystem
WO2002020213A2 (de) Werkzeugmaschine mit kollisionsprüfung
DE102018004673A1 (de) Robotersystem, das eine Geschwindigkeit anzeigt
DE102017108492A1 (de) Steuervorrichtung eines Roboters, die ein Betriebsprogramm, in dem der Zustand einer zusätzlichen Achse enthalten ist, anzeigt
DE102018124671B4 (de) Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
DE102015209773B3 (de) Verfahren zur kontinuierlichen Synchronisation einer Pose eines Manipulators und einer Eingabevorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division