DE102018109326A1 - Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter - Google Patents

Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter Download PDF

Info

Publication number
DE102018109326A1
DE102018109326A1 DE102018109326.8A DE102018109326A DE102018109326A1 DE 102018109326 A1 DE102018109326 A1 DE 102018109326A1 DE 102018109326 A DE102018109326 A DE 102018109326A DE 102018109326 A1 DE102018109326 A1 DE 102018109326A1
Authority
DE
Germany
Prior art keywords
user interface
end effector
kinematics
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018109326.8A
Other languages
English (en)
Other versions
DE102018109326B4 (de
Inventor
Nico Angerstein
Matthias Dagen
Jens Kotlarski
Julian Öltjen
Andreas Schoob
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Voraus Robotik De GmbH
Original Assignee
Yuanda Robotics GmbH
Leibniz Universitaet Hannover
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yuanda Robotics GmbH, Leibniz Universitaet Hannover filed Critical Yuanda Robotics GmbH
Priority to DE102018109326.8A priority Critical patent/DE102018109326B4/de
Priority to CN201910219608.6A priority patent/CN110385703A/zh
Publication of DE102018109326A1 publication Critical patent/DE102018109326A1/de
Application granted granted Critical
Publication of DE102018109326B4 publication Critical patent/DE102018109326B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • B25J9/046Revolute coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

Die vorliegende Erfindung betrifft eine mehrgliedrige aktuierte Kinematik (1), vorzugsweise einen Roboter (1), besonders vorzugsweise einen Knickarmroboter (1), mit mehreren Gliedern (11), welche durch aktuierte Gelenke (12) miteinander verbunden sind, und mit einem Endeffektor (14), welcher mit wenigstens einem Glied (11) verbunden ist, wobei die mehrgliedrige aktuierte Kinematik (1) wenigstens eine Benutzerschnittstelle (15) für einen Benutzer (2) aufweist. Die mehrgliedrige aktuierte Kinematik (1) ist dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) derart angeordnet und ausgerichtet ist, so dass sich der Endeffektor (14) bei der Benutzung der Benutzerschnittstelle (15) im Blickfeld des Benutzers (2) befindet.

Description

  • Die vorliegende Erfindung betrifft eine mehrgliedrige aktuierte Kinematik, vorzugsweise einen Roboter, besonders vorzugsweise einen Knickarmroboter, gemäß des Oberbegriffs des Patentanspruchs 1 sowie eine Benutzerschnittstelle zur Verwendung bei einer derartigen mehrgliedrigen aktuierten Kinematik gemäß des Patentanspruchs 15.
  • Bereits seit Längerem werden Roboter als technische Apparaturen dazu verwendet, dem Menschen mechanische Arbeit abzunehmen. Roboter werden mittlerweile in vielen verschiedenen Bereichen eingesetzt. So sind in der Industrie insbesondere Knickarmroboter weit verbreitet, um insbesondere Aufgaben in der Montage, in der Fertigung, in der Logistik sowie beim Verpacken und Kommissionieren zu übernehmen. Ein Knickarmroboter ist üblicherweise eine 6-achsige Maschine mit einem kubischen Arbeitsraum, weshalb Knickarmroboter sehr flexibel eingesetzt werden können. Je nach Anwendung kann das Werkzeug, welches als Endeffektor dient, gewechselt werden. Ferner ist die Programmierung des Knickarmroboters an die Anwendung anzupassen. An sich kann der Knickarmroboter jedoch unverändert eingesetzt werden, was ihn sehr anpassungsfähig machen kann.
  • In den letzten Jahren haben sich die Roboter und insbesondere die Knickarmroboter dahin entwickelt, z.B. bei der Montage unmittelbar mit Personen zusammenzuarbeiten. Hieraus hat sich der Begriff des kollaborativen Roboters oder kurz Cobot (aus dem Englischen: collaborative robot) entwickelt. Es kann sowohl auf mechanische Abgrenzungen wie z.B. Gitterwände verzichtet werden, welche bisher üblich waren, um den Arbeitsraum des Roboters von der Umgebung zu trennen, in der sich Personen sicher aufhalten können, als auch auf Lichtschranken, Lichtgitter und dergleichen, welche zumindest ein Betreten des Arbeitsraums des Roboters durch eine Person erkennen können. Vielmehr können sich Personen frei gegenüber dem Roboter bewegen.
  • Um eine Anwendung z.B. zu programmieren, zu aktivieren und bzw. oder zu beeinflussen kann es erforderlich sein, Informationen z.B. an den Roboter zu übergeben. Dies können z.B. Positionen und Orientierungen, zusammen auch Posen genannt, Bahnen und deren Geschwindigkeiten, zusammen auch Trajektorien genannt, sowie Handlungen z.B. des Endeffektors wie z.B. das Öffnen und Schließen eines Greifers sein. Diese Informationen werden üblicherweise mit einem stationären oder mobilen externen Computer erstellt und dann an den Roboter übertragen. Auch kann dies über Handgeräte erfolgen, welche von einer Person als Benutzer mit einer Hand gehalten sowie mit der anderen Hand bedient werden können. In diesem Fall kann sich die Person in unmittelbarer Nähe des Roboters aufhalten und sich mit dessen Bewegungen mitbewegen, um die Programmierung vorzunehmen bzw. diese zu kontrollieren.
  • Die Programmierung sowie Bedienung derartiger Roboter wird somit üblicherweise auf fest im Arbeitsraum befindlichen Bildschirmen oder auf handgehaltenen Bedienpanels durchgeführt. Bei der Programmierung sowie Bedienung der Roboter ist dadurch ein häufiger Wechsel der Blickrichtung zwischen Endeffektor und Bildschirm notwendig. Dies macht die Bedienung unkomfortabel und erhöht das Sicherheitsrisiko, da der Endeffektor nicht zu jeder Zeit im Blickfeld des Benutzers liegt.
  • Die EP 3 135 443 A1 beschreibt einen Roboter mit einem Roboterarm. Der Roboterarm verfügt aufgrund geeigneter konventioneller Drehgelenke, welche die einzelnen Glieder des Roboterarms miteinander verbinden, über sieben Freiheitsgrade. Jedes Gelenk verfügt über einen serienmäßigen elastischen Aktuator, der es dem Roboter ermöglicht, äußere Kräfte wie z.B. Kräfte aus unerwarteten Kollisionen zu erfassen. Der Roboterarm endet in einem End-Effektor zur Manipulation von Objekten.
  • Der Roboter hat auch einen kopfähnlichen Bildschirm, der ein Paar Augen oder andere Ausgänge anzeigen kann, welche für Personen in der Nähe die Orientierung des Roboters verdeutlichen oder seinen Zustand anzeigen können. Der kopfähnliche Bildschirm ist an einer Säule angebracht, welche sich vertikal nach oben von dem ersten Glied erstreckt und mit diesem gemeinsam um dessen Hochachse rotiert werden kann. Bei einigen Ausführungen kann sich der Bildschirm um die vertikale Achse drehen und um eine horizontale Achse knicken lassen, die parallel zur Längsachse des Bildschirms verläuft.
  • Der Roboter weist an seinem Arm auch einen Satz von Knöpfen und Tasten auf, welche es einem Benutzer ermöglichen, auf Informationen zu reagieren, die auf dem Bildschirm angezeigt werden, z.B. durch Auswahl von Menüpunkten oder durch Umschalten zwischen Trainings- und Ausführungsmodus. Auch können über einen digitalen Drehknopf Zahlen, z.B. um anzugeben, in wie viele Zeilen und Spalten Objekte in eine Box gepackt werden sollen, oder Text wie z.B. Passwörter oder Objekt- und Aufgabennamen eingegeben werden. Diese Bedienelemente sind an einem weiteren Glied angeordnet, welches sich etwa mittig zwischen dem Glied mit dem Bildschirm und dem Endeffektor befindet.
  • Auch in diesem Fall ist weiterhin bei der Programmierung bzw. Bedienung des Roboters ein häufiger Wechsel der Blickrichtung zwischen Endeffektor und Bildschirm notwendig, so dass die hierdurch verursachten zuvor beschrieben Nachteile weiterhin auftreten können.
  • Derartige Überlegungen spielen auch bei Automatisierungsanlagen eine Rolle, welche hinsichtlich der Beweglichkeit der angetriebenen Glieder zueinander mit den Robotern vergleichbar sind und für vergleichbare Aufgaben eingesetzt werden können. Gemeinsam können Automatisierungsanlagen sowie Roboter und insbesondere Knickarmroboter als Antriebssysteme oder auch als mehrgliedrige aktuierte Kinematiken bezeichnet werden.
  • Eine Aufgabe der vorliegenden Erfindung ist es, eine mehrgliedrige aktuierte Kinematik, vorzugsweise einen Roboter, besonders vorzugsweise einen Knickarmroboter, der eingangs beschriebenen Art bereitzustellen, so dass dessen Benutzung verbessert, insbesondere vereinfacht, beschleunigt und bzw. oder sicherer gemacht, werden kann. Dies soll insbesondere für die Inbetriebnahme, Programmierung und bzw. oder Bedienung erreicht werden. Insbesondere soll der Endeffektor bei der Inbetriebnahme, Programmierung und bzw. oder Bedienung des Roboters von einem Benutzer, welcher die Inbetriebnahme, Programmierung bzw. Bedienung ausführt, besser als bisher bekannt im Blickfeld gehalten werden können. Zumindest soll eine Alternative zu bekannten mehrgliedrigen aktuierten Kinematiken, vorzugsweise zu bekannten Robotern, besonders vorzugsweise zu bekannten Knickarmrobotern, geschaffen werden. Dies alles soll jeweils ganz besonders für Cobots ermöglicht werden.
  • Die Aufgabe wird erfindungsgemäß durch eine mehrgliedrige aktuierte Kinematik mit den Merkmalen des Patentanspruchs 1 sowie durch eine Benutzerschnittstelle mit den Merkmalen des Patentanspruchs 15 gelöst. Vorteilhafte Weiterbildungen sind in den Unteransprüchen beschrieben.
  • Somit betrifft die vorliegende Erfindung eine mehrgliedrige aktuierte Kinematik, vorzugsweise einen Roboter, besonders vorzugsweise einen Knickarmroboter. Eine derartige Kinematik kann feststehend angeordnet oder auch mobil beweglich sein. Bei dem Knickarmroboter handelt es sich vorzugsweise um eine Cobot. Neben Robotern und insbesondere neben Knickarmrobotern kann die Kinematik auch eine Automatisierungsanlage sein.
  • Die mehrgliedrige aktuierte Kinematik weist mehrere Glieder auf, welche durch aktuierte Gelenke miteinander verbunden sind, und einen Endeffektor, welcher mit wenigstens einem Glied verbunden ist. Unter einem Glied kann ein starres Element verstanden werden, welches mit wenigstens einem Gelenk an jedem Ende mit einem weiteren Glied, mit dem Endeffektor oder mit einer Basis der Kinematik verbunden ist. Die Verbindung des Endeffektors mit dem nächstliegenden Glied kann vorzugsweise über eine Endeffektoreinheit erfolgen, wie weiter unten näher beschrieben werden wird. Auch die Endeffektoreinheit kann über ein aktuiertes Gelenk mit dem nächstliegenden Glied verbunden sein. Zwischen der Endeffektoreinheit und dem Endeffektor selbst kann ebenfalls ein aktuiertes Gelenk vorgesehen sein, um den Endeffektor insbesondere gegenüber der Endeffektoreinheit um eine gemeinsame Längsachse drehen zu können. Vorzugsweise erstreckt sich die Kinematik, vorzugsweise als Roboter und besonders vorzugsweise als Knickarmroboter, von einer feststehenden oder mobilen Basis weg über mehrere Glieder, welche untereinander mit aktuierten Gelenken verbunden sind, sowie über die Endeffektoreinheit bis hin zum Endeffektor und bildet so eine serielle kinematische Kette.
  • Unter einem Gelenk wird eine bewegliche Verbindung zwischen zwei Elementen wie hier zwischen zwei Gliedern, zwischen einem Glied und dem Endeffektor bzw. der Endeffektoreinheit, zwischen der Endeffektoreinheit und dem Endeffektor selbst oder zwischen einem Glied und der Basis verstanden. Diese Beweglichkeit kann vorzugsweise rotatorisch oder translatorisch sein, wobei auch eine kombinierte Beweglichkeit möglich sein kann. Vorzugsweise sind die Gelenke als Drehgelenke ausgebildet. Die Gelenke können jeweils durch eine Antriebseinheit angetrieben, d.h. aktuiert, werden, wobei elektrische Antriebe zu bevorzugen sind, da elektrische Energie vergleichsweise einfach über die einzelnen Glieder und Gelenke bis zu der jeweiligen Antriebseinheit übertragen werden kann. Der Endeffektor kann jegliche Art von Werkzeug, Tastelement und dergleichen wie z. B. ein Greifer und dergleichen sein.
  • Die mehrgliedrige aktuierte Kinematik weist wenigstens eine Benutzerschnittstelle für einen Benutzer auf. Dies kann ein Ausgabeelement wie z.B. ein Bildschirm oder dergleichen und bzw. oder ein Eingabeelement wie z.B. Tasten, Knöpfe, eine Tastatur, ein Drehrad und dergleichen sein. Vorzugsweise sind sowohl ein Ausgabeelement und ein Eingabeelement vorhanden, welche separat oder integriert ausgebildet sein können. Eine integrierte Umsetzung einer Ausgabe- und Eingabefunktion kann z.B. über einen berührungsempfindlichen Bildschirm erfolgen, wie weiter unten noch näher beschrieben werden wird. In jedem Fall kann der Bildschirm durch ein gehärtetes Glas vor Verschmutzung sowie vor mechanischen Belastungen wie z.B. Kratzern geschützt werden.
  • Die vorliegende Erfindung ist dadurch gekennzeichnet, dass die Benutzerschnittstelle derart angeordnet und ausgerichtet ist, so dass sich der Endeffektor bei der Benutzung der Benutzerschnittstelle im Blickfeld des Benutzers befindet. Mit anderen Worten ist die Benutzerschnittstelle erfindungsgemäß derart an der Kinematik angeordnet und ausgerichtet, so dass der Benutzer den Endeffektor stets im Blickfeld hat, wenn der Benutzer die Benutzerschnittstelle benutzt. Somit liegen die Benutzerschnittstelle und der Endeffektor gemeinsam im selben Blickfeld des Benutzers. Eine Wahrnehmung sowohl des Endeffektors als auch der Benutzerschnittstelle durch den Benutzer kann somit erfolgen, ohne dass der Benutzer hierzu die Blickrichtung wechseln muss. Dies kann ebenso für den Bereich des Arbeitsraums der Kinematik gelten, welcher sich zumindest in der unmittelbaren Nähe des Endeffektors befindet.
  • Unter einer Benutzung der Benutzerschnittstelle wird verstanden, dass der Benutzer dessen Ausgabefunktion, dessen Eingabefunktion oder beide Funktionen gemeinsam nutzt. Ein Benutzer kann eine Person sein, welche mit der Kinematik interagiert um diese zu benutzen; dies kann beispielsweise eine Inbetriebnahme, eine Programmierung und bzw. oder eine Bedienung sein, um z.B. einen programmierten Bewegungs- und bzw. oder Handlungsablauf zu aktivieren und bzw. oder zu beeinflussen, z.B. durch die Vorgabe von Parametern.
  • Als Blickfeld des Benutzers wird dessen Gebrauchsblickfeld angesehen, welches aus Augenbewegungen von lediglich etwa 20° besteht. Diese Definition soll dahingehend eingeschränkt werden, dass die Erweiterung des Gebrauchsblickfelds durch zusätzliche Kopfbewegungen im Sinne der vorliegenden Erfindung gar nicht oder lediglich durch sehr geringe zusätzliche Kopfbewegungen unterstützt werden soll. Unter der Blickrichtung wird die Richtung verstanden, in welche der Blick der Person gerichtet ist. Die Blickrichtung zeigt in Richtung einer Blickachse und liegt in der Höhe und in der Breite üblicherweise mittig im Gebrauchsblickfeld, welches sich um die (Blick-)Achse der Blickrichtung herum kegelförmig von der Person weg erstreckt.
  • Dies kann es ermöglichen, dass der Endeffektor auch während der Benutzung der Benutzerschnittstelle durch den Benutzer von diesem wahrgenommen werden kann. Somit kann der Benutzer die Benutzerschnittstelle benutzen, um z.B. eine Bewegung oder eine Handlung wie z.B. ein Ergreifen eines Gegenstands zu programmieren, und ohne eine Veränderung seines Blickfelds, d.h. ohne den Blick von der Benutzerschnittstelle zu nehmen, den Endeffektor wahrnehmen und somit erkennen kann, ob dieser die gewünschte Bewegung bzw. Handlung ausführt. Dies kann die Benutzung der Kinematik und insbesondere die Inbetriebnahme, Programmierung und die Bedienung vereinfachen, komfortabler gestalten und bzw. oder beschleunigen. Insbesondere Programmierungs- und bzw. oder Inbetriebnahmevorgänge können hierdurch verkürzt und die Bedienung im Betrieb vereinfacht werden.
  • Auch kann dies die Sicherheit der Benutzung erhöhen, da der Endeffektor stets im Blickfeld des Benutzers ist. Hierdurch kann sicherer und schneller erkannt werden, falls z.B. eine Kollision oder dergleichen des Endeffektors zu erwarten ist, falls die Benutzung fortgeführt bzw. vorgenommen wird. Insbesondere kann bei der Programmierung vom Benutzer unmittelbar optisch erfasst werden, welche Pose der Endeffektor aufweist und z.B. ob eine in der Programmierung befindliche Trajektorie und bzw. oder Handlung das gewünschte Ergebnis erzeugen oder z.B. zu einer Kollision führen wird. Dies gilt ebenso für die Benutzung bzw. bei der Aktivierung bereits vorhandener Bewegungs- bzw. Handlungsabläufe.
  • Vorteilhaft ist auch, dass Fehlermeldungen über die Benutzerschnittstelle einfacher und bzw. oder näher an der Anwendung der Kinematik signalisiert werden können. Ebenso können mögliche Ursachen für Fehlermeldungen, welche insbesondere vom Endeffektor ausgehen können wie z.B. eine Kollision beim Greifen und dergleichen schneller vom Benutzer erkannt und hierauf reagiert werden.
  • Derartige Abläufe von Bewegungen und bzw. oder Handlungen können auch als Anwendungen bezeichnet werden. Beispielsweise können Anwendungen wie z.B. „Nehmen und Platzieren“, „Farbauftrag“ oder „Punktschweißen“ sowie administrative Aufgaben wie z.B. „Inbetriebnahme“ oder „Werkzeug einmessen“ programmiert und ausgewählt werden.
  • Dies kann ebenso für die Bedienung der Kinematik gelten, um z.B. eine programmierte Bewegung zu beginnen. Die Bedienung kann basierend auf sog. Aufgabenvorlagen erfolgen, welche auch als sogenannten Szenarien bezeichnet werden können. Eine Aufgabenvorlage beschreibt die verschiedenen, vom Benutzer durchzuführenden Schritte der jeweiligen Aufgabe. Diese kann z.B. einen festgelegten Ablauf (Ablaufsteuerung) aufweisen, welcher z.B. auf einer Steuerungseinheit, auf einem Hauptrechner bzw. auf einem Motion Control System der Kinematik kontrolliert bzw. gesteuert wird. Hierzu kann die Anzeige von z.B. Bilddaten auf der Benutzerschnittstelle gehören, wie weiter unten noch erläutert werden wird. Auch können Definitionen und Systemparameter verwendet werden, welche z.B. die Funktion der Bedienelemente bzw. Eingabeelemente definieren. Soll eine Aufgabenvorlage ausgeführt werden, dessen Bilddaten bisher nicht auf der Benutzerschnittstelle vorliegen, so müssen diese zuvor in einem gesonderten Übertragungsmodus übertragen werden. Hierfür können dieselben Kommunikationswege genutzt werden, wie für den laufenden Betrieb, jedoch mit einem entsprechend modifizierten Protokoll.
  • Gemäß eines Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle derart angeordnet und ausgerichtet, so dass der Benutzer die Benutzerschnittstelle bei der Benutzung zumindest im Wesentlichen entlang einer Längsachse des Endeffektors optisch erfassen und bzw. oder haptisch bedienen kann. Dies konkretisiert die vorliegende Erfindung dahingehend, dass das Blickfeld des Benutzers bei der Benutzung der Benutzerschnittstelle derart ausgerichtet ist, dass mit dieser Blickrichtung des Benutzers diesem gleichzeitig eine optische Erfassung und bzw. oder eine haptische Bedienung der Benutzerschnittstelle möglich ist und der Benutzer die Benutzerschnittstelle zumindest im Wesentlichen entlang der Längsachse des Endeffektors wahrnehmen kann. Somit blickt der Benutzer bei der Benutzung der Benutzerschnittstelle stets zumindest im Wesentlichen in die Richtung der Längsachse des Endeffektors. Hierbei ist unter „zumindest im Wesentlichen entlang einer Längsachse des Endeffektors“ vorzugsweise der Winkelbereich von bis zu etwa 20° des Gebrauchsblickfelds zu verstehen.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle an einem endeffektornahen Gelenk angeordnet. Unter einem endeffektornahen Gelenk sind alle Gelenke der Kinematik zu verstehen, welche näher am Endeffektor als an der Basis der Kinematik oder auch mittig zwischen dem Endeffektor und der Basis der Kinematik angeordnet sind. Dabei liegt diesem Aspekt der vorliegenden Erfindung die Erkenntnis zugrunde, dass die zuvor beschriebenen Eigenschaften und Vorteile bei jeder dieser Anordnungen ausreichend erreicht werden können, so dass die vorliegende Erfindung hierdurch umgesetzt werden kann. Dabei ist es jedoch vorteilhaft, die Benutzerschnittstelle so nahe wie möglich an den Endeffektor heran anzuordnen, da aufgrund der hierdurch erhöhten räumlichen Nähe sowie der reduzierten Anzahl von beweglichen Elementen zwischen der Benutzerschnittstelle und dem Endeffektor dieser sicherer in das Blickfeld des Benutzers und insbesondere näher an die Achse der Blickrichtung des Benutzers, d.h. an die Blickachse des Benutzers, herangeführt werden kann. Dies kann die zuvor beschriebenen Eigenschaften und Vorteile verstärken.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle an dem Endeffektor angeordnet. Hierdurch können die zuvor beschriebenen Eigenschaften und Vorteile besonders wirkungsvoll umgesetzt werden, da aufgrund der hierdurch erreichten großen räumlichen Nähe zwischen der Benutzerschnittstelle und dem Endeffektor sowie der minimierten bzw. auf Null reduzierten Anzahl von beweglichen Elementen zwischen der Benutzerschnittstelle und dem Endeffektor dieser sicherer in das Blickfeld des Benutzers und insbesondere sehr nahe an die Achse der Blickrichtung des Benutzers, d.h. an die Blickachse des Benutzers, herangeführt werden kann.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle an dem Endeffektor zumindest im Wesentlichen entlang einer Längsachse des Endeffektors angeordnet und bzw. oder die Oberfläche der Benutzerschnittstelle ist an dem Endeffektor zumindest im Wesentlichen senkrecht zu einer Längsachse des Endeffektors ausgerichtet. Mit anderen Worten ist die Oberflächennormale der Benutzerschnittstelle an dem Endeffektor zumindest im Wesentlichen parallel zu einer Längsachse des Endeffektors angeordnet. Wird die Benutzerschnittstelle an dem Endeffektor zumindest im Wesentlichen entlang einer Längsachse des Endeffektors angeordnet, so kann dies begünstigen, dass sich der Endeffektor bei der Benutzung der Benutzerschnittstelle im Blickfeld des Benutzers befindet. Mit anderen Worten liegt die Benutzerschnittstelle entlang der Längsachse des Endeffektors zwischen dem Benutzer und dem Endeffektor, so dass der Benutzer insbesondere dann, wenn er die Benutzerschnittstelle optisch erfasst und bzw. oder haptisch bedient, sowohl die Benutzerschnittstelle als auch den dahinter liegenden Endeffektor im selben Blickfeld hat. Dies gilt entsprechend für eine Ausrichtung der Benutzerschnittstelle.
  • Wird die Benutzerschnittstelle an dem Endeffektor zumindest im Wesentlichen entlang einer Längsachse des Endeffektors angeordnet und gleichzeitig die Benutzerschnittstelle an dem Endeffektor zumindest im Wesentlichen senkrecht zu einer Längsachse des Endeffektors ausgerichtet, so kann die Benutzerschnittstelle von Benutzer auch zumindest im Wesentlichen entlang der Längsachse des Endeffektors optisch erfasst und bzw. oder haptisch bedient werden. Die Umsetzung der Bewegungen des Endeffektors kann somit im Wesentlichen entlang der Längsachse des Endeffektors als gemeinsame Achse vom Benutzer über die Bedienschnittstelle hin zum Endeffektor erfolgen, was die Benutzung und insbesondere die Inbetriebnahme, die Programmierung und bzw. oder die Bedienung der Kinematik sehr intuitiv für den Benutzer machen kann.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung weist die mehrgliedrige aktuierte Kinematik eine Endeffektoreinheit auf, welche den Endeffektor mit einem Glied verbindet, wobei die Benutzerschnittstelle an der Endeffektoreinheit angeordnet ist. Mit anderen Worten endet die serielle kinematische Kette der Glieder mit einer Endeffektoreinheit, welche gegenüber dem vorangehenden Glied beweglich ist und sowohl den Endeffektor selbst als auch die Benutzerschnittstelle aufweist. Der Endeffektor ist vorzugsweise gegenüber der Endeffektoreinheit um eine gemeinsame Längsachse A drehbeweglich ausgebildet, was durch ein weiteres aktuiertes Gelenk umgesetzt werden kann. Der Endeffektor und die Benutzerschnittstelle können somit mittels der gemeinsamen Endeffektoreinheit miteinander verbunden werden. Auch kann die gemeinsame Endeffektoreinheit dazu verwendet werden, die Benutzerschnittstelle gegenüber dem Endeffektor wie zuvor beschrieben definiert anzuordnen und bzw. oder auszurichten. Dies kann feststehend oder beweglich, insbesondere drehbar und bzw. oder neigbar und bzw. oder kippbar, oder auch abnehmbar erfolgen, wie jeweils weiter unten noch erläutert werden wird. Somit kann die vorliegende Erfindung ohne Veränderung der Glieder und der aktuierten Gelenke bei einer derartigen Kinematik umgesetzt werden, indem eine entsprechende Endeffektoreinheit verwendet wird.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle als Gehäuseelement eines Gelenks oder des Endeffektors, vorzugsweise der Endeffektoreinheit, ausgebildet. Unter einem Gehäuseelement wird ein Element eines Gelenks oder des Endeffektors bzw. der Endeffektoreinheit verstanden, welches vorgesehen ist, dieses von der Umgebung zu trennen und insbesondere Bestandteile des Gelenks, des Endeffektors bzw. der Endeffektoreinheit wie elektrische Versorgungsleitungen, Datenleitungen, Antriebe, Sensoren, Platinen und dergleichen vor äußeren Einflüssen zu schützen. Das Gehäuseelement kann auch als Abdeckung, als Kappe oder als Einhausung bezeichnet werden.
  • Auf diese Art und Weise kann die Benutzerschnittstelle als integraler Bestandteil des Gelenks, des Endeffektors bzw. der Endeffektoreinheit ausgeführt und fest mit diesem bzw. mit dieser verbunden werden. Dies kann einen sicheren Halt, auch bei schnelleren Bewegungen der Kinematik, ermöglichen. Auch kann die Benutzerschnittstelle hierdurch verliersicher angeordnet und eindeutig der Kinematik zugeordnet werden. Ferner kann ein üblicherweise vorhandenes Gehäuseelement durch ein Gehäuseelement mit integrierter Benutzerschnittstelle ersetzt werden. Dies kann den Bauraum zur Anordnung der Benutzerschnittstelle minimieren, da auf ein zusätzliches Gehäuseelement des Gelenks, des Endeffektors bzw. der Endeffektoreinheit verzichtet werden kann. Dies kann auch das Gewicht der Kinematik reduzieren, was gerade deshalb relevant sein kann, da die Benutzerschnittstelle vorzugsweise zu der Basis beabstandet und eher nahe dem Endeffektor angeordnet wird und somit dessen Gewicht vergleichsweise große Momente gegenüber der Basis erzeugen kann.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle als abnehmbares Aufsatzelement eines Gelenks und bzw. oder des Endeffektors, vorzugsweise der Endeffektoreinheit, ausgebildet. Dies kann es ermöglichen, dass ein Benutzer die Benutzerschnittstelle bei Bedarf auch abnehmen und in der Hand haltend benutzen kann. Auch kann die Anordnung der Benutzerstelle auf diese Art und Weise zwischen mehreren Gelenken und dem Endeffektor bzw. der Endeffektoreinheit verändert werden, um die Benutzung der Benutzerschnittstelle verschiedenen Gegebenheiten anzupassen. Hierdurch kann die Flexibilität der Anwendung der Benutzerschnittstelle erhöht werden. Auch kann ein und dieselbe Benutzerschnittstelle ggfs. für mehrere Kinematiken nacheinander oder zeitgleich genutzt werden. Ferner kann die Benutzerschnittstelle dann entfernt werden, wenn die Kinematik z.B. programmiert und bzw. in Betrieb genommen bzw. ein Programm gestartet wurde um zu verhindern, dass die Programmierung etc. ungewollt bzw. unautorisiert verändert oder beendet wird. Dies kann die Betriebssicherheit der Kinematik erhöhen.
  • Um dies umzusetzen, können die entsprechende Gelenke und bzw. oder der Endeffektor bzw. die Endeffektoreinheit jeweils eine Aufnahme aufweisen, welche dazu ausgebildet ist, die Benutzerschnittstelle lösbar aufzunehmen. Dies kann z.B. über ein Einrasten, ein Aufschrauben bzw. Einschrauben, ein Aufstecken bzw. Einstecken der Benutzerschnittstelle auf, an oder in den Gelenken und bzw. oder dem Endeffektor bzw. der Endeffektoreinheit umgesetzt werden.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung weist die Benutzerschnittstelle wenigstens einen Bildschirm, vorzugsweise wenigstens einen berührungsempfindlichen Bildschirm, zur Wiedergabe wenigstens einer Darstellung auf. Unter einem Bildschirm wird eine elektrisch angesteuerte Anzeige ohne bewegliche Teile zur optischen Signalisierung von veränderlichen Informationen wie z.B. von Bildern oder Zeichen verstanden. Unter einem berührungsempfindlichen Bildschirm wird ein kombiniertes Ein- und Ausgabegerät verstanden, bei dem durch Berührung von Teilen eines Bildes der Programmablauf eines technischen Gerätes direkt gesteuert werden kann.
  • Eine Darstellung auf dem Bildschirm kann Informationen wie z.B. Bilder, Text oder dergleichen aufweisen, wie weiter unten noch näher erläutert werden wird. Hierdurch kann es ermöglicht werden, dem Benutzer über die Benutzerschnittstelle Informationen anzuzeigen, so dass er diese wahrnehmen und gleichzeitig den Endeffektor im Blickfeld haben kann. Wird dabei ein berührungsempfindlicher Bildschirm verwendet, so können auf diesem Wege auch Eingaben an die Kinematik getätigt werden, so dass sowohl Ausgaben als auch Eingaben mit demselben Element der Benutzerschnittstelle vorgenommen werden können. Dies kann die Umsetzung der Funktion der Eingabe vereinfachen. Auch kann hierdurch Platz der Benutzerschnittstelle eingespart werden, welcher nicht für separate Bedienelemente wie z.B. für Tasten und dergleichen verwendet werden muss, so dass der Bildschirm bei unveränderten Abmaßen der Benutzerschnittstelle größer ausgebildet sein kann. Hierdurch können die gleichen Informationen größer angezeigt werden, was für den Benutzer die Wahrnehmung der dargestellten Informationen erleichtern kann. Auch können mehr Informationen als Darstellung angezeigt werden, was die Informationsübermittelung von der Benutzerschnittstelle an den Benutzer verbessern kann.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle ausgebildet, sich lagerichtig auszurichten. Mit anderen Worten ist die Benutzerschnittstelle dazu ausgebildet, ihre Ausrichtung derart zu verändern, dass dem Benutzer die Benutzerschnittstelle und insbesondere Elemente der Benutzerschnittstelle wie z.B. ein Bildschirm, Tasten und dergleichen und ganz besonders eine Darstellung eines Bildschirms unabhängig von der Orientierung des entsprechenden Gliedes, des Endeffektors bzw. der Endeffektoreinheit für ihn benutzbar, d.h. optisch erfassbar und bzw. oder haptisch bedienbar, angeboten werden kann. Insbesondere ist unter einer lagerichtigen Ausrichtung eine horizontale Ausrichtung wie z.B. bei dem künstlichen Horizont eines Flugzeugs zu verstehen. Die Information über die jeweilige Orientierung der Benutzerschnittstelle um die jeweilige kartesische Raumachse kann z.B. durch Berechnungen, durch Modellierungen oder auch durch Messungen zur Verfügung gestellt werden. Insbesondere können Beschleunigungssensoren, ein Schwerkraftsensor und bzw. oder ein Gyroskop in der Benutzerschnittstelle vorgesehen und dazu verwendet werden, den Schwerkraftvektor zu bestimmen und die Benutzerschnittstelle bzw. dessen Bildschirm bzw. die Darstellung des Bildschirms anhand des Vektors auszurichten, was einen zusätzlichen messtechnischen Aufwand darstellen jedoch sehr verlässliche Ergebnisse liefern kann.
  • Die Umsetzung der lagerichtigen Ausrichtung der Benutzerschnittstelle kann unterschiedlich und vorzugsweise wie folgt erfolgen:
  • Vorzugsweise ist die Benutzerschnittstelle ausgebildet, gegenüber der mehrgliedrigen aktuierten Kinematik, vorzugsweise gegenüber einem Glied oder gegenüber dem Endeffektor, vorzugsweise gegenüber der Endeffektoreinheit, gedreht und bzw. oder geneigt und bzw. oder gekippt zu werden. Auf diese Art und Weise können die zuvor beschriebenen Eigenschaften und Vorteile durch eine relative Beweglichkeit der Benutzerschnittstelle als Ganzes gegenüber einem Gelenk oder gegenüber dem Endeffektor bzw. gegenüber der Endeffektoreinheit umgesetzt werden.
  • Alternativ oder zusätzlich ist vorzugsweise der Bildschirm ausgebildet, gegenüber der Benutzerschnittstelle gedreht und bzw. oder geneigt und bzw. oder gekippt zu werden. In diesem Fall kann die Benutzerschnittstelle gegenüber einem Gelenk oder gegenüber dem Endeffektor bzw. gegenüber der Endeffektoreinheit unverändert bleiben und der Bildschirm gegenüber der Benutzerschnittstelle bewegt werden. Auch hierdurch können die zuvor beschriebenen Eigenschaften und Vorteile umgesetzt werden.
  • Alternativ oder zusätzlich ist vorzugsweise die Benutzerschnittstelle ausgebildet, die Darstellung des Bildschirms zu rotieren und bzw. oder neigen und bzw. oder zu kippen. Mit anderen Worten ist der Bildschirm gegenüber der Benutzerschnittstelle feststehend ausgebildet und es wird lediglich die Darstellung auf dem Bildschirm in ihrer Lage verändert. Hierzu kann die Darstellung im Bildschirm gedreht werden, um dessen Drehung auszugleichen und dem Benutzer horizontal ausgerichtet zu erscheinen. Eine Neigung und bzw. oder eine Kippung der Darstellung kann durch eine dreidimensionale Darstellung erfolgen, welche diese perspektivisch abbilden kann. Hierdurch können diese Eigenschaften der Darstellung des Bildschirms durch entsprechende Veränderungen der Darstellung umgesetzt werden, ohne dass hierzu der Bildschirm oder die Benutzerschnittstelle verändert werden müssen. Mit anderen Worten können diese Eigenschaften rein durch softwareseitige Maßnahmen und damit ohne Veränderungen der Hardware umgesetzt werden. Dies kann die Umsetzung dieser Eigenschaften einfach, flexibel und bzw. oder kostengünstig ermöglichen.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung weist die Darstellung des Bildschirms auf:
    • • eine Darstellung eines durchzuführenden Arbeitsschrittes, und bzw. oder
    • • eine textuelle Beschreibung eines durchzuführenden Arbeitsschrittes, und bzw. oder
    • • eine Darstellung eines Fadenkreuzes oder einer Zielscheibe zur Annäherung an eine bestimmte Pose, und bzw. oder
    • • eine Darstellung eines Pfades, entlang dessen die mehrgliedrige aktuierte Kinematik vom Benutzer per Hand zu führen ist, und bzw. oder
    • • eine bildhafte Darstellung der mehrgliedrigen aktuierten Kinematik mit hervorgehobenen Abschnitten, und bzw. oder
    • • eine Darstellung einer Serviceanweisung, und bzw. oder
    • • eine Darstellung eines dynamisch an die aktuelle Konfiguration der mehrgliedrigen aktuierten Kinematik angepassten Koordinatensystems.
  • Mittels einer Darstellung eines durchzuführenden Arbeitsschrittes wie z.B. durch eine bildhafte Darstellung, durch eine symbolische Darstellung, durch die Darstellung eines Piktogramms, durch die Darstellung eines Ablaufplans und dergleichen kann dem Benutzer über die Benutzerschnittstelle eine Information optisch mitgeteilt werden, um die Benutzung zu erleichtern. Eine derartige Darstellung kann schnell, einfach und intuitiv vom Benutzer zu verstehen sein.
  • Dies kann zusätzlich oder alternativ durch eine textuelle Beschreibung eines durchzuführenden Arbeitsschrittes erfolgen. Vorteilhaft kann hierbei sein, dass sich über eine textuelle Beschreibung vergleichsweise umfangreiche Informationen mitteilen lassen.
  • Zusätzlich oder alternativ kann dies durch eine Darstellung eines Fadenkreuzes oder einer Zielscheibe zur Annäherung an eine bestimmte Pose erfolgen. Dies kann vom Benutzer sehr intuitiv zu verstehen sein. Eine derartige Darstellung kann gerade für geradlinige Bewegungen auf ein Ziel wie z.B. eine Pose hin sehr anschaulich und hilfreich sein.
  • Zusätzlich oder alternativ kann dies durch eine Darstellung eines Pfades erfolgen, entlang dessen die mehrgliedrige aktuierte Kinematik vom Benutzer per Hand zu führen ist. Beispielsweise kann eine tunnelförmige Darstellung eines Pfades erfolgen, entlang dessen der Nutzer den Roboter handführen soll. Dies kann vom Benutzer sehr intuitiv zu verstehen sein. Eine derartige Darstellung kann gerade für komplexere Bewegungen, insbesondere mit einer veränderlichen Orientierung des Endeffektors, sehr anschaulich und hilfreich sein.
  • Zusätzlich oder alternativ kann dies durch eine bildhafte Darstellung der mehrgliedrigen aktuierten Kinematik mit hervorgehobenen Abschnitten erfolgen. Hierdurch können einzelne Glieder, einzelne Gelenke sowie der Endeffektor bzw. Abschnitte hiervon für den Benutzer intuitiv verständlich angesprochen werden, um diese z.B. auszuwählen. Auch können Singularitäten aufgezeigt werden, indem die entsprechenden Gelenke markiert werden. Ferner können Fehlerquellen aufgezeigt werden, um diese schneller auffinden zu können. Ebenso können Begrenzungen des Arbeitsraumes oder des Gelenkraumes dargestellt werden. Dies alles kann die Benutzung und insbesondere die Inbetriebnahme und bzw. oder Programmierung für den Benutzer erleichtern.
  • Zusätzlich oder alternativ kann dies durch eine Darstellung einer Serviceanweisung erfolgen. Dies kann z.B. das schrittweise Vorgehen zum Tausch des Werkzeugs sein. Auch diese Tätigkeiten können dem Benutzer auf diese Art und Weise erleichtert werden. Auch können Fehler hierdurch reduziert werden.
  • Zusätzlich oder alternativ kann dies durch eine Darstellung eines dynamisch an die aktuelle Konfiguration der mehrgliedrigen aktuierten Kinematik angepassten Koordinatensystems erfolgen, um z.B. die Ausrichtung des Endeffektors zum Weltkoordinatensystem zu verdeutlichen. Auch diese Informationen können für den Benutzer auf diese Art und Weise verständlicher dargestellt werden.
  • All diese Möglichkeiten, Informationen der Kinematik und bzw. oder für die Kinematik für den Benutzer wie zuvor beschrieben einzeln oder in Kombination dieser Darstellungen zugänglich zu machen, können dem Benutzer die Benutzung und insbesondere die Inbetriebnahme, die Programmierung und bzw. oder die Bedienung erleichtern. Auch können Fehler bei der Benutzung und insbesondere bei der Inbetriebnahme, bei der Programmierung und bzw. oder bei der Bedienung reduziert werden. Diese Tätigkeiten können hierdurch auch beschleunigt werden.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung weist die Benutzerschnittstelle wenigstens ein Bedienelement, vorzugsweise wenigstens ein Eingabeelement, auf. Als Bedienelement kommen Tasten, eine Tastatur, Cursortasten, Drehknöpfe und dergleichen in Betracht. Hierdurch kann jeweils eine Bedienung bzw. eine Eingabe erfolgen, um seitens des Benutzers über die Benutzerschnittstelle Informationen an die Kinematik zu übermitteln. Hierdurch können Informationen wie z.B. Zahlenwerte und dergleichen über Tasten bzw. über eine Tastatur eingegeben werden. Auch kann zwischen verschiedenen Optionen z.B. mittels Cursortasten oder mittels eines Drehkopfs ausgewählt und die Auswahl z.B. durch eine OK-Taste bzw. durch Drücken des Drehknopfs bestätigt werden. Ebenso können einzelne Schritte z.B. eines Bewegungs- und bzw. oder Handlungsablaufs durch jeweiliges Drücken einer Taste bestätigt werden, um z.B. die Programmierung des Bewegungs- und bzw. oder Handlungsablaufs schrittweise zu überprüfen. Dies alles kann die Benutzung der Kinematik und insbesondere dessen Inbetriebnahme, Programmierung und bzw. oder Bedienung vereinfachen.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung ist die Benutzerschnittstelle ausgebildet, drahtlos oder drahtgebunden signalübertragend der mehrgliedrigen aktuierten Kinematik, vorzugsweise mit einer Datenleitung, vorzugsweise mit einem Feldbus, der mehrgliedrigen aktuierten Kinematik, verbunden zu werden. Eine derartige signalübertragende Verbindung kann jeglicher Kanal sein, welcher geeignet ist, die Benutzerschnittstelle mit der Kinematik und insbesondere mit einer Steuerungseinheit, einem Hauptrechner und insbesondere mit einem Motion Control System der Kinematik zu verbinden und kommunizieren zu lassen. Die Signalübertragung kann dabei drahtlos z.B. über WLAN, über Bluetooth, über WiFi, über Funk und dergleichen erfolgen, da eine deterministische Verbindung mit hoher Kommunikationsrate nicht zwingend erforderlich ist. Die Signalübertragung kann auch drahtgebunden z.B. über eine Datenleitung der Kinematik wie vorzugsweise über einen Feldbus der Kinematik erfolgen. Hierdurch kann eine Kommunikation in nur eine Richtung und vorzugsweise in beide Richtungen zwischen der Kinematik bzw. dessen Steuerungseinheit, dessen Hauptrechner bzw. dessen Motion Control System und der Benutzerschnittstelle stattfinden.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung weist die Benutzerschnittstelle wenigstens eine Recheneinheit auf. Als Recheneinheit kann vorzugsweise ein Ein-Chip-System verwendet werden, um den Aufwand, den Bauraum und bzw. oder die Kosten gering zu halten; dies kann jedoch ausreichend sein, um die Funktionen der Benutzerschnittstelle umzusetzen. Die Recheneinheit kann den selbstständigen Betrieb der Benutzerschnittstelle ermöglichen, so dass diese z.B. über eine Datenleitung z.B. mit der Kinematik bzw. dessen Steuerungseinheit, dessen Hauptrechner bzw. dessen Motion Control System kommunizieren, jedoch die Elemente der Benutzerschnittstelle wie z.B. einen Bildschirm und bzw. oder Bedienelemente selbst betreiben kann. Dies kann es ermöglichen, dass die Benutzerschnittstelle als weiterer Teilnehmer in eine Signalübertragung wie z.B. an eine Datenleitung wie insbesondere an einen Feldbus der Kinematik angegliedert werden kann. Hierdurch kann die Benutzerschnittstelle einfach in die Kinematik integriert und ggfs. auch bei bestehenden Kinematiken nachgerüstet werden.
  • Die vorliegende Erfindung betrifft auch eine Benutzerschnittstelle zur Verwendung bei einer mehrgliedrigen aktuierten Kinematik, vorzugsweise bei einem Roboter, besonders vorzugsweise bei einem Knickarmroboter, wie zuvor beschrieben, wobei die Benutzerschnittstelle ausgebildet ist, derart angeordnet und ausgerichtet zu werden, so dass sich der Endeffektor bei der Benutzung der Benutzerschnittstelle im Blickfeld des Benutzers befindet. Hierdurch kann eine Benutzerschnittstelle geschaffen werden, um die Umsetzung der zuvor beschriebenen erfindungsgemäßen Kinematik zu ermöglichen und deren Eigenschaften und Vorteile zu nutzen.
  • Zwei Ausführungsbeispiele und weitere Vorteile der Erfindung werden nachstehend im Zusammenhang mit den folgenden Figuren erläutert. Darin zeigt:
    • 1 eine schematische seitliche Darstellung einer erfindungsgemäßen mehrgliedrigen aktuierten Kinematik gemäß eines ersten Ausführungsbeispiels;
    • 2 eine Detailansicht der 1;
    • 3 eine perspektivische Darstellung einer Endeffektoreinheit gemäß des ersten Ausführungsbeispiels;
    • 4 eine schematische Darstellung eines zweiten Ausführungsbeispiels;
    • 5 eine Benutzerschnittstelle in einer ersten Ausrichtung; und
    • 6 die Benutzerschnittstelle der 5 in einer zweiten Ausrichtung.
  • Die o.g. Figuren werden in kartesischen Koordinaten betrachtet. Es erstreckt sich eine Längsrichtung X, welche auch als Tiefe X bezeichnet werden kann. Senkrecht zur Längsrichtung X erstreckt sich eine Querrichtung Y, welche auch als Breite Y bezeichnet werden kann. Senkrecht sowohl zur Längsrichtung X als auch zur Querrichtung Y erstreckt sich eine vertikale Richtung Z, welche auch als Höhe Z bezeichnet werden kann.
  • 1 zeigt eine schematische seitliche Darstellung einer erfindungsgemäßen mehrgliedrigen aktuierten Kinematik 1 gemäß eines ersten Ausführungsbeispiels. 2 zeigt eine Detailansicht der 1. 3 zeigt eine perspektivische Darstellung einer Endeffektoreinheit 13 gemäß des ersten Ausführungsbeispiels.
  • Die mehrgliedrige aktuierte Kinematik 1 wird in Form eines Roboters 1 und genauer gesagt in Form eines Knickarmroboters 1 betrachtet, welche als Cobot ausgeführt ist. Der Knickarmroboter 1 weist eine Basis 10 auf, mit welcher der Knickarmroboter 1 auf einem Untergrund 3 feststehend angeordnet ist. Von der feststehenden Basis 10 weg erstrecken sich mehrere Glieder 11, welche durch aktuierte Gelenke 12 miteinander verbunden sind. Das von der Basis 10 am weitesten entfernte Glied 11 ist über ein aktuiertes Gelenk 12 mit einer Endeffektoreinheit 13 verbunden, welche einen Endeffektor 14 aufweist. Der Endeffektor 14 ist gegenüber der Endeffektoreinheit 13 um eine gemeinsame Längsachse A drehbeweglich (nicht dargestellt). Hierdurch bildet der Knickarmroboter 1 eine serielle kinematische Kette aus, welche sich von der Basis 10 hin zu dem Endeffektor 14 erstreckt. Der Endeffektor 14 kann, wie hier beispielhaft betrachtet, als Greifer 14 ausgebildet sein, um Gegenstände greifen und mit sich mit bewegen zu können. Die Bewegungen des Knickarmroboters 1 sowie die Betätigung des Greifers 14 der Endeffektoreinheit 13 werden von einer Steuerungseinheit 16 gesteuert bzw. geregelt, welche auch als Recheneinheit 16, als Hauptrechner 16 oder als Motion Control System 16 des Knickarmroboters 1 bezeichnet werden kann.
  • Die Gelenke 12 sind jeweils als Drehgelenke 12 ausgebildet und werden dadurch aktuiert, dass jeweils ein elektrischer Antrieb pro Gelenke 12 vorgesehen ist (nicht dargestellt), welcher dieses rotatorisch antreiben kann. Die Antriebe werden jeweils von einem lokalen Motorcontroller gesteuert bzw. geregelt (nicht dargestellt), welcher auch die Messgrößen des jeweiligen Antriebs erfassen kann. Der Antrieb eines Gelenks 12 bzw. dessen Motorcontroller ist jeweils auf dem Glied 11 angeordnet, welches der Basis 10 zugewandt ist. Somit wird das Gewicht des Antriebs bzw. dessen Motorcontrollers jeweils von dem Glied 11 getragen, welches näher an der Basis 10 angeordnet ist. Hierdurch kann das zu bewegende Gewicht möglichst gering gehalten werden.
  • Es ist ferner eine Benutzerschnittstelle 15 vorgesehen, welche einen Bildschirm 15a sowie mehrere Bedienelemente 15c aufweist, siehe z.B. 3, wie weiter unten mit Bezug zu den 5 und 6 näher beschrieben werden wird. Die Benutzerschnittstelle 15 dient dazu, dass Informationen von dem Knickarmroboter 1 einem Benutzer 2 mittels des Bildschirms 15a angezeigt werden können, damit diese vom Benutzer 2 optisch erfasst und wahrgenommen werden können. Auch dient die Benutzerschnittstelle 15 dazu, dass Informationen von dem Benutzer 2 dem Knickarmroboter 1 mittels der Bedienelemente 15c haptisch übermittelt werden können. Über die Benutzerschnittstelle 15 kann somit eine Kommunikation zwischen dem Benutzer 2 und dem Knickarmroboter 1 in beide Richtungen erfolgen. Hierüber kann eine Inbetriebnahme, eine Programmierung sowie eine Bedienung des Knickarmroboters 1 erfolgen. Die Benutzerschnittstelle 15 ist in diesem Ausführungsbeispiel feststehend als Gehäuseelement in die Endeffektoreinheit 13 integriert.
  • Erfindungsgemäß ist die Benutzerschnittstelle 15 derart angeordnet und ausgerichtet, so dass sich der Endeffektor 14 bei der Benutzung der Benutzerschnittstelle 15 im Blickfeld des Benutzers 2 befindet. Das Blickfeld des Benutzers 2 im Sinne des Gebrauchsblickfelds wird etwa in einem Winkel von 20° zur Blickachse C des Benutzers 2 begrenzt, wobei in der 2 die untere und obere Grenze B des Blickfelds des Benutzers 2 dargestellt sind. Ist dabei der Blick des Benutzers 2, d.h. die Blickachse C des Benutzers 2, auf den Bildschirm 15a der Benutzerschnittstelle 15 gerichtet, so liegt gleichzeitig der Endeffektor 14 noch innerhalb der oberen Grenze B des Blickfelds des Benutzers 2 und kann somit entlang einer Richtung D vom Benutzer 2 optisch erfasst werden, ohne das Blickfeld zu verändern. Die Richtung D vom Auge des Benutzers 2 hin zum Endeffektor 14 befindet sich somit innerhalb der Grenzen B des Gebrauchsblickfelds des Benutzers 2. Ferner verläuft die Richtung D vom Auge des Benutzers 2 hin zum Endeffektor 14 in einem sehr geringen, d.h. spitzen Winkel zur Blickachse C des Benutzers 2, so dass aufgrund der Anordnung und Ausrichtung der Benutzerschnittstelle 15 der Bildschirm 15a der Benutzerschnittstelle 15 und der Endeffektor 14 gleichzeitig vom Benutzer 2 optisch erfasst und wahrgenommen werden können. Somit kann der Benutzer 2 den Endeffektor 14 optisch überwachen während er ausgegebene Informationen von dem Bildschirm 15a optisch erfasst und bzw. oder Informationen über die Bedienelemente 15c haptisch eingibt.
  • Dies kann insbesondere dadurch erreicht werden, dass die Benutzerschnittstelle 15 derart angeordnet und ausgerichtet ist, so dass der Benutzer 2 die Benutzerschnittstelle 15 bei der Benutzung zumindest im Wesentlichen entlang einer Längsachse A des Endeffektors 14 optisch erfassen und bzw. oder haptisch bedienen kann, da die Richtung D vom Auge des Benutzers 2 hin zum Endeffektor 14 und die Längsachse A des Endeffektors 14 im Wesentlichen parallel zueinander verlaufen. Hierzu ist die Benutzerschnittstelle 15 dem Endeffektor 14 entlang dessen Längsachse A hinsichtlich der Endeffektoreinheit 13 diametral gegenüberliegend angeordnet und die Fläche des Bildschirms 15a senkrecht zur Längssachse A ausgerichtet, so dass sich der Benutzer 2 hinter der Endeffektoreinheit 13 dem Endeffektor 14 abgewandt aufhalten und in Richtung D des Endeffektors 14 blickend entlang dessen Längsachse A sowohl den Endeffektor 14 als auch die Benutzerschnittstelle 15 optisch erfassen kann, siehe 1 bis 3. Dies kann die Benutzung und insbesondere die Programmierung z.B. neuer Bahnen und bzw. oder neuer Handlungen sowie die Bedienung wie z.B. das Aktivieren einer Bahnbewegung und bzw. oder eines Handlungsablaufs erleichtern sowie deren Sicherheit erhöhen.
  • 4 zeigt eine schematische Darstellung eines zweiten Ausführungsbeispiels. In diesem Fall ist die Benutzerschnittstelle 15 an einem Gelenk 12 angeordnet. Bei diesem Gelenk 12 handelt es sich um ein endeffektornahes Gelenk 12, welches z.B. mit dem Glied 11 verbunden ist, welches an dem gegenüberliegenden Ende über ein weiteres Gelenk 12 mit der Endeffektoreinheit 13 verbunden ist. Hierdurch können die zuvor beschriebenen Eigenschaften und Vorteile zumindest teilweise ebenfalls erreicht werden, weil auch diese Anordnung es ermöglichen kann, dass der Bildschirm 15a der Benutzerschnittstelle 15 und der Endeffektor 14 gleichzeitig vom Benutzer 2 optisch erfasst und wahrgenommen werden können. Gleichzeitig können die Möglichkeiten erweitert werden, die vorliegende Erfindung an dem Knickarmroboter 1 umzusetzen.
  • Die Benutzerschnittstelle 15 wird in dem zweiten Ausführungsbeispiel als eine abnehmbare Benutzerschnittstelle 15 realisiert, welche z.B. mittels eines Rastmechanismus lösbar auf dem Gehäuse des Gelenks 12 angeordnet und bei Bedarf von diesem abgenommen werden kann. Dies kann die Flexibilität der Benutzung der Benutzerschnittstelle 15 erhöhen.
  • 5 zeigt eine Benutzerschnittstelle 15 in einer ersten Ausrichtung. 6 zeigt die Benutzerschnittstelle der 5 in einer zweiten Ausrichtung. Diese Benutzerschnittstelle 15 ist für beide zuvor beschriebenen Ausführungsbeispiele anwendbar.
  • Die Benutzerschnittstelle 15 weist, wie zuvor bereits erwähnt, einen Bildschirm 15a auf, welcher in diesem Fall ohne eine berührungsempfindliche Funktion ausgebildet ist. Entsprechend haben Benutzereingaben über Bedienelemente 15c zu erfolgen, welche in dem Fall als Eingabeelemente 15c in Form von drei Tasten 15c ausgeführt sind. Die drei Tasten 15c sind in der Höhe Z unterhalb des Bildschirms 15a angeordnet. Alternativ könnte der Bildschirm 15a auch berührungsempfindlich ausgebildet sein, so dass dann Eingaben zusätzlich oder ausschließlich über den Bildschirm 15a getätigt werden könnten, für dessen Umsetzung dann auch der Platz der Tasten 15c verwendet werden könnte. Dies könnte beispielsweise alternativ oder zusätzlich auch durch ein Drehrad als Bedienelement 15c erfolgen, welches seitlich an der Benutzerschnittstelle 15 angeordnet und aus diesem seitlich herausragen könnte.
  • Auf dem Bildschirm 15a wird dem Benutzer 2 eine Darstellung 15b von Informationen angezeigt. Dies kann z.B. ein Text zur Beschreibung eines durchzuführenden Arbeitsschrittes sein. Ebenso können z.B. Parameter und dergleichen angezeigt werden, um den Benutzer 2 über den aktuellen Zustand des Knickarmroboters 1 zu informieren. Eine Beeinflussung der angezeigten Informationen sowie eine Reaktion des Benutzers 2 hierauf kann über die Tasten 15c erfolgen.
  • Um die Darstellung 15b für den Benutzer 2 auch bei Veränderungen der Pose der Endeffektoreinheit 13 möglichst gut lesbar zu halten, ist die Benutzerschnittstelle 15 dazu ausgebildet, sich lagerichtig auszurichten. Dies erfolgt im betrachteten Fall durch eine Drehung der Darstellung 15b auf dem Bildschirm 15a, siehe 6, welcher selbst als Gehäuseelement feststehend mit der Benutzerschnittstelle 15 angeordnet ist. Somit kann z.B. die textuelle Beschreibung des auszuführenden Arbeitsschrittes horizontal ausgerichtet bleiben, auch wenn die Endeffektoreinheit 13 bei der Ausführung des Arbeitsschrittes eine Drehung um ihre Längsachse A ausführt. Dies kann in Abhängigkeit der Pose der Benutzerschnittstelle 15 auch um anderen Achsen im Raum erfolgen.
  • Dies kann es dem Benutzer 2 erleichtern bzw. ermöglichen, den Text der Darstellung 15b auch in diesem Fall auf dem Bildschirm 15a optisch erfassen und lesen zu können. Zur Umsetzung der horizontalen Ausrichtung der Darstellung 15b auf dem Bildschirm 15a können z.B. Beschleunigungssensoren, einen Schwerkraftsensor und bzw. oder ein Gyroskop der Benutzerschnittstelle 15 verwendet werden (nicht dargestellt). Mittels dieser Messwerte kann ein Schwerkraftvektor der Benutzerschnittstelle 15 bestimmt und die Darstellung 15b des Bildschirms 15a anhand des Vektors u.a. zur Horizontalen ausgerichtet werden. Bei anderen Darstellungen 15b wie z.B. eines Fadenkreuzes oder einer Zielscheibe zur Annäherung des Endeffektors 14 an eine bestimmte Pose des Endeffektors 14 kann diese Darstellung 15b auch dreidimensional auf dem Bildschirm 15a angezeigt werden, um auch in diesem Fall dem Benutzer 2 das Verständnis der Darstellung 15b zu erleichtern.
  • Die Benutzerschnittstelle 15 weist ferner eine Recheneinheit 15d auf, welche als Ein-Chip-System einfach, kostengünstig und kompakt ausgeführt ist. Die Recheneinheit 15d ist drahtgebunden signalübertragend sowohl mit den drei Tasten 15c als auch mit dem Bildschirm 15a verbunden, um diese jeweils zu betreiben, was auch das Abfragen der Tasten 15c sowie das Erzeugen der Darstellung 15b des Bildschirms 15a umfasst. Ferner ist die Recheneinheit 15d signalübertragend mit einer Datenleitung des Knickarmroboters 1 in Form eines Feldbusses verbunden, um mit dessen Steuerungseinheit 16 kommunizieren zu können.
  • Bezugszeichenliste
  • A
    Längsachse des Endeffektors 14
    B
    Grenzen des Gebrauchsblickfelds eines Benutzers 2
    C
    Blickachse eines Benutzers 2; Achse eines Blicks eines Benutzers 2
    D
    Richtung vom Auge eines Benutzers 2 hin zum Endeffektor 14
    X
    Längsrichtung; Tiefe
    Y
    Querrichtung; Breite
    Z
    vertikale Richtung; Höhe
    1
    mehrgliedrige aktuierte Kinematik; (Knickarm-)Roboter
    10
    Basis
    11
    Glieder
    12
    aktuierte (Dreh-)Gelenke
    13
    Endeffektoreinheit
    14
    Endeffektor; Greifer
    15
    Benutzerschnittstelle
    15a
    (berührungsempfindlicher) Bildschirm
    15b
    Darstellung des Bildschirms 15a
    15c
    Bedienelemente; Eingabeelemente; Tasten; Cursortasten; Drehknopf
    15d
    Recheneinheit der Benutzerschnittstelle 15
    16
    Steuerungseinheit; Recheneinheit; Hauptrechner; Motion Control System
    2
    Benutzer
    3
    Untergrund
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 3135443 A1 [0006]

Claims (15)

  1. Mehrgliedrige aktuierte Kinematik (1), vorzugsweise Roboter (1), besonders vorzugsweise Knickarmroboter (1), mit mehreren Gliedern (11), welche durch aktuierte Gelenke (12) miteinander verbunden sind, und mit einem Endeffektor (14), welcher mit wenigstens einem Glied (11) verbunden ist, wobei die mehrgliedrige aktuierte Kinematik (1) wenigstens eine Benutzerschnittstelle (15) für einen Benutzer (2) aufweist, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) derart angeordnet und ausgerichtet ist, so dass sich der Endeffektor (14) bei der Benutzung der Benutzerschnittstelle (15) im Blickfeld des Benutzers (2) befindet.
  2. Mehrgliedrige aktuierte Kinematik (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) derart angeordnet und ausgerichtet ist, so dass der Benutzer (2) die Benutzerschnittstelle (15) bei der Benutzung zumindest im Wesentlichen entlang einer Längsachse (A) des Endeffektors (14) optisch erfassen und/oder haptisch bedienen kann.
  3. Mehrgliedrige aktuierte Kinematik (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) an einem endeffektornahen Gelenkt (12) angeordnet ist.
  4. Mehrgliedrige aktuierte Kinematik (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) an dem Endeffektor (14) angeordnet ist.
  5. Mehrgliedrige aktuierte Kinematik (1) nach Anspruch 4, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) an dem Endeffektor (14) zumindest im Wesentlichen entlang einer Längsachse (A) des Endeffektors (14) angeordnet ist, und/oder dass die Oberfläche der Benutzerschnittstelle (15) an dem Endeffektor (14) zumindest im Wesentlichen senkrecht zu einer Längsachse (A) des Endeffektors (14) ausgerichtet ist.
  6. Mehrgliedrige aktuierte Kinematik (1) nach einem der vorangehenden Ansprüche, gekennzeichnet durch eine Endeffektoreinheit (13), welche den Endeffektor (14) mit einem Glied (11) verbindet, wobei die Benutzerschnittstelle (15) an der Endeffektoreinheit (13) angeordnet ist.
  7. Mehrgliedrige aktuierte Kinematik (1) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) als Gehäuseelement eines Gelenks (12) oder des Endeffektors (14), vorzugsweise der Endeffektoreinheit (13), ausgebildet ist.
  8. Mehrgliedrige aktuierte Kinematik (1) nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) als abnehmbares Aufsatzelement eines Gelenks (12) und/oder des Endeffektors (14), vorzugsweise der Endeffektoreinheit (13), ausgebildet ist.
  9. Mehrgliedrige aktuierte Kinematik (1) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) wenigstens einen Bildschirm (15a), vorzugsweise wenigstens einen berührungsempfindlichen Bildschirm (15a), zur Wiedergabe wenigstens einer Darstellung (15b) aufweist.
  10. Mehrgliedrige aktuierte Kinematik (1) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) ausgebildet ist, sich lagerichtig auszurichten, wobei die Benutzerschnittstelle (15) vorzugsweise ausgebildet ist, gegenüber der mehrgliedrigen aktuierten Kinematik (1), vorzugsweise gegenüber einem Glied (11) oder gegenüber dem Endeffektor (14), vorzugsweise gegenüber der Endeffektoreinheit (13), gedreht und/oder geneigt und/oder gekippt zu werden, und/oder wobei der Bildschirm (15a) vorzugsweise ausgebildet ist, gegenüber der Benutzerschnittstelle (15) gedreht und/oder geneigt und/oder gekippt zu werden, und/oder wobei die Benutzerschnittstelle (15) vorzugsweise ausgebildet ist, die Darstellung (15b) des Bildschirms (15a) zu rotieren und/oder neigen und/oder zu kippen.
  11. Mehrgliedrige aktuierte Kinematik (1) nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Darstellung (15b) des Bildschirms (15a) aufweist: eine Darstellung eines durchzuführenden Arbeitsschrittes, und/oder eine textuelle Beschreibung eines durchzuführenden Arbeitsschrittes, und/oder eine Darstellung eines Fadenkreuzes oder einer Zielscheibe zur Annäherung an eine bestimmte Pose, und/oder eine Darstellung eines Pfades, entlang dessen die mehrgliedrige aktuierte Kinematik (1) vom Benutzer per Hand zu führen ist, und/oder eine bildhafte Darstellung der mehrgliedrigen aktuierten Kinematik (1) mit hervorgehobenen Abschnitten, und/oder eine Darstellung einer Serviceanweisung, und/oder eine Darstellung eines dynamisch an die aktuelle Konfiguration der mehrgliedrigen aktuierten Kinematik (1) angepassten Koordinatensystems.
  12. Mehrgliedrige aktuierte Kinematik (1) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) wenigstens ein Bedienelement (15c), vorzugsweise wenigstens ein Eingabeelement (15c), aufweist.
  13. Mehrgliedrige aktuierte Kinematik (1) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) ausgebildet ist, drahtlos oder drahtgebunden signalübertragend der mehrgliedrigen aktuierten Kinematik (1), vorzugsweise mit einer Datenleitung, vorzugsweise mit einem Feldbus, der mehrgliedrigen aktuierten Kinematik (1), verbunden zu werden.
  14. Mehrgliedrige aktuierte Kinematik (1) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle (15) wenigstens eine Recheneinheit (15d) aufweist.
  15. Benutzerschnittstelle (15) zur Verwendung bei einer mehrgliedrigen aktuierten Kinematik (1), vorzugsweise bei einem Roboter (1), besonders vorzugsweise bei einem Knickarmroboter (1), nach einem der vorangehenden Ansprüche, wobei die Benutzerschnittstelle (15) ausgebildet ist, derart angeordnet und ausgerichtet zu werden, so dass sich der Endeffektor (14) bei der Benutzung der Benutzerschnittstelle (15) im Blickfeld des Benutzers (2) befindet.
DE102018109326.8A 2018-04-19 2018-04-19 Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter Active DE102018109326B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018109326.8A DE102018109326B4 (de) 2018-04-19 2018-04-19 Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
CN201910219608.6A CN110385703A (zh) 2018-04-19 2019-03-22 多节式致动的运动机构,优选机器人,特别优选关节型机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018109326.8A DE102018109326B4 (de) 2018-04-19 2018-04-19 Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter

Publications (2)

Publication Number Publication Date
DE102018109326A1 true DE102018109326A1 (de) 2019-10-24
DE102018109326B4 DE102018109326B4 (de) 2019-12-05

Family

ID=68104905

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018109326.8A Active DE102018109326B4 (de) 2018-04-19 2018-04-19 Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter

Country Status (2)

Country Link
CN (1) CN110385703A (de)
DE (1) DE102018109326B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020103269A1 (de) 2020-02-10 2021-08-12 J. Schmalz Gmbh Handhabungsroboter

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020134260B4 (de) 2020-12-18 2022-07-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Funktionsoptimierung eines Roboterarms

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617515A (en) * 1994-07-11 1997-04-01 Dynetics, Inc. Method and apparatus for controlling and programming a robot or other moveable object
DE19928519A1 (de) * 1998-07-01 2000-01-05 Faro Tech Inc Displayeinrichtung für eine Koordinatenmeßmaschine
DE102010063222A1 (de) * 2010-12-16 2012-06-21 Robert Bosch Gmbh Einrichtung und Verfahren zur Programmierung einer Handhabungsvorrichtung sowie Handhabungsvorrichtung
US20150211847A1 (en) * 2014-01-29 2015-07-30 Mitutoyo Corporation Manual measuring system
EP2916099A1 (de) * 2014-03-07 2015-09-09 Hexagon Technology Center GmbH Maschine zum Messen der Koordinaten von Gelenkarmen
DE102014209041A1 (de) * 2014-05-13 2015-11-19 Daimler Ag Roboterarbeitsplatz
EP3135443A1 (de) 2015-08-24 2017-03-01 Rethink Robotics Inc. Roboter mit hot-swapped-endeffektoren
DE102015012962A1 (de) * 2015-10-08 2017-04-13 Sami Haddadin Robotersystem

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9586323B2 (en) * 2012-02-15 2017-03-07 Intuitive Surgical Operations, Inc. User selection of robotic system operating modes using mode distinguishing operator actions
JP6100727B2 (ja) * 2014-04-09 2017-03-22 ファナック株式会社 リードスルー機能を有する人協調型産業用ロボット
US10691097B2 (en) * 2014-05-09 2020-06-23 The Boeing Company Path repeatable machining for full sized determinant assembly
CN104057458B (zh) * 2014-06-16 2015-12-02 浙江大学 一种基于体感和触摸的多轴机械臂直观控制系统及方法
GB201419645D0 (en) * 2014-11-04 2014-12-17 Cambridge Medical Robotics Ltd Characterising motion constraints
CN204398901U (zh) * 2015-01-28 2015-06-17 蔡乌力吉 一种可移动式充电机器人
CN106426113A (zh) * 2016-11-25 2017-02-22 南陵县襄荷产业协会 一种基于物联网的远程机械臂

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617515A (en) * 1994-07-11 1997-04-01 Dynetics, Inc. Method and apparatus for controlling and programming a robot or other moveable object
DE19928519A1 (de) * 1998-07-01 2000-01-05 Faro Tech Inc Displayeinrichtung für eine Koordinatenmeßmaschine
DE102010063222A1 (de) * 2010-12-16 2012-06-21 Robert Bosch Gmbh Einrichtung und Verfahren zur Programmierung einer Handhabungsvorrichtung sowie Handhabungsvorrichtung
US20150211847A1 (en) * 2014-01-29 2015-07-30 Mitutoyo Corporation Manual measuring system
EP2916099A1 (de) * 2014-03-07 2015-09-09 Hexagon Technology Center GmbH Maschine zum Messen der Koordinaten von Gelenkarmen
DE102014209041A1 (de) * 2014-05-13 2015-11-19 Daimler Ag Roboterarbeitsplatz
EP3135443A1 (de) 2015-08-24 2017-03-01 Rethink Robotics Inc. Roboter mit hot-swapped-endeffektoren
DE102015012962A1 (de) * 2015-10-08 2017-04-13 Sami Haddadin Robotersystem

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020103269A1 (de) 2020-02-10 2021-08-12 J. Schmalz Gmbh Handhabungsroboter

Also Published As

Publication number Publication date
CN110385703A (zh) 2019-10-29
DE102018109326B4 (de) 2019-12-05

Similar Documents

Publication Publication Date Title
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102013019869B4 (de) Roboterarm mit Eingabemodul
EP3381027B1 (de) Kran-, baumaschinen- oder flurförderzeug-simulator
EP2987592B1 (de) Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter
DE112011101930B4 (de) Verfahren, Steuerungssystem und Bewegungvorgabemittel zum Programmieren oder Vorgeben von Bewegungen oder Abläufen eines Industrieroboters
DE102014222809B3 (de) Event-basierte Redundanzwinkelkonfiguartion für Gelenkarmroboter
DE10392966B4 (de) Parallele haptische Joystick-Vorrichtung
EP2546711B2 (de) Verfahren zum Programmieren eines Roboters
DE102010039540B4 (de) Handbediengerät zum manuellen Bewegen eines Roboterarms
EP3420422B1 (de) Bediengerät für einen manipulator
EP2652568B1 (de) Einrichtung zur programmierung einer handhabungsvorrichtung
DE102018205209A1 (de) Lehrvorrichtung, Anzeigegerät, Lehrprogramm, und Anzeigeprogramm
DE102018109326B4 (de) Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
WO2017121639A1 (de) Kran-, baumaschinen- oder flurförderzeug-simulator
DE102010019640A1 (de) Handgerät und Verfahren zum Steuern und/oder Programmieren eines Manipulators
DE102018201589A1 (de) Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung
EP1684159A2 (de) Mobile haptische Schnittstelle
WO2005047076A1 (de) Vorrichtung zum bedienen eines fahrzeugs
EP3408210B1 (de) Fernsteuer-einrichtung für kran, baumaschine und/oder flurförderzeug
EP3048597B1 (de) Simulationsanordnung
DE102019115406A1 (de) Autonomer Multikopter mit Manipulator
DE112022000760T5 (de) Robotersystem mit roboter und anzeigeeinheit
DE202012013204U1 (de) Manipulator

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R081 Change of applicant/patentee

Owner name: VORAUS ROBOTIK GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30171 HANNOVER, DE

Owner name: ROBCORE GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30171 HANNOVER, DE

Owner name: YUANDA ROBOTICS GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30171 HANNOVER, DE

R082 Change of representative

Representative=s name: HOLZ, CHRISTIAN, DIPL.-ING. DR.-ING., DE

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: VORAUS ROBOTIK GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

Owner name: ROBCORE GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

Owner name: YUANDA ROBOTICS GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

R082 Change of representative

Representative=s name: HOLZ, CHRISTIAN, DIPL.-ING. DR.-ING., DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: VORAUS ROBOTIK GMBH, DE

Free format text: FORMER OWNERS: GOTTFRIED WILHELM LEIBNIZ UNIVERSITAET HANNOVER, 30167 HANNOVER, DE; YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

Owner name: ROBCORE GMBH, DE

Free format text: FORMER OWNERS: GOTTFRIED WILHELM LEIBNIZ UNIVERSITAET HANNOVER, 30167 HANNOVER, DE; YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

Owner name: YUANDA ROBOTICS GMBH, DE

Free format text: FORMER OWNERS: GOTTFRIED WILHELM LEIBNIZ UNIVERSITAET HANNOVER, 30167 HANNOVER, DE; YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

R082 Change of representative

Representative=s name: HOLZ, CHRISTIAN, DIPL.-ING. DR.-ING., DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: VORAUS ROBOTIK GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

Owner name: ROBCORE GMBH, DE

Free format text: FORMER OWNER: YUANDA ROBOTICS GMBH, 30455 HANNOVER, DE

R081 Change of applicant/patentee

Owner name: VORAUS ROBOTIK GMBH, DE

Free format text: FORMER OWNER: ROBCORE GMBH, 30455 HANNOVER, DE