DE102013113459A1 - Intuitive greifsteuerung für einen mehrachsigenrobotergreifer - Google Patents

Intuitive greifsteuerung für einen mehrachsigenrobotergreifer Download PDF

Info

Publication number
DE102013113459A1
DE102013113459A1 DE102013113459.9A DE102013113459A DE102013113459A1 DE 102013113459 A1 DE102013113459 A1 DE 102013113459A1 DE 102013113459 A DE102013113459 A DE 102013113459A DE 102013113459 A1 DE102013113459 A1 DE 102013113459A1
Authority
DE
Germany
Prior art keywords
gripping
sensory
gripper
controller
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102013113459.9A
Other languages
English (en)
Other versions
DE102013113459B4 (de
Inventor
James W. Wells
Roland J. Menassa
Omer Einav
Noam Perlis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013113459A1 publication Critical patent/DE102013113459A1/de
Application granted granted Critical
Publication of DE102013113459B4 publication Critical patent/DE102013113459B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

Ein System umfasst einen Robotergreifer und einen Greifcontroller. Der Greifer, der eine sensorische Matrix aufweist, die mehrere Sensoren enthält, führt ausgewählte Greifposen mit Bezug auf eine Komponente in dem entsprechenden Verfahren aus, um dadurch die Komponente in Ansprechen auf ein Greifbefehlssignal von dem Controller zu ergreifen. Der Controller weist einen berührungsempfindlichen Bildschirm oder eine andere interaktive graphische Benutzerschnittstelle (GUI) auf, welche ein Bewegungsablaufsignal in Ansprechen auf eine Eingabe von einem Benutzer erzeugt. Sensorische Abbilder stellen kalibrierte Grenzwerte für die gewählte Greifpose für jeden Sensor bereit, der in der sensorischen Matrix enthalten ist. Der Controller überträgt das Greifbefehlssignal in Ansprechen auf den Empfang des Bewegungsablaufsignals von der GUI an den Greifer. Die GUI kann ein Rad mit Bewegungsabläufen mit Symbolen anzeigen, das eine Nabe, welche einer neutralen Pose des Robotergreifers entspricht, und Symbole umfasst, die Greifposen entsprechen und um einen Umfang des Rads mit Bewegungsabläufen herum angeordnet sind.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft ein System und ein Verfahren zum intuitiven Steuern eines Griffs eines mehrachsigen Robotergreifers.
  • HINTERGRUND
  • Roboter sind automatisierte Vorrichtungen, die in der Lage sind, unter Verwendung einer Reihe von Gliedern auf Objekte einzuwirken oder diese zu manipulieren. Die Glieder sind über Gelenkverbindungen und aktorgetriebene Robotergelenke miteinander verbunden. Greiforgane sind die speziellen Glieder oder verbundenen Vorrichtungen, die zum Durchführen einer Arbeitsaufgabe verwendet werden. Zum Beispiel wird bei einem Robotergreifer, der typischerweise eine Hand ist, die zwei oder mehr gelenkige Finger aufweist, die Aufgabe des Ergreifens eines Objekts mit Hilfe einer gesteuerten Bewegung der Glieder durchgeführt, die in einer Kette angeordnet sind, welche sich von der Basis des Robotergreifers aus zu den Spitzen der Fingern erstreckt.
  • Robotergreifer sind in einem großen Bereich von geometrischen Größen, Greifkraftfähigkeiten, Freiheitsgraden und relativen Geschicklichkeiten verfügbar. Einige Greiferkonstruktionen verwenden zwei relativ starre Kneiferfinger, um ein einfaches Objekt mit Hilfe einer Zwickbewegung zu ergreifen. Andere verwenden eine fünffingerige humanoide Hand mit gelenkigen Fingern, um ein Objekt in einer Vielfalt von Greifposen zu ergreifen, wobei die spezielle Greifpose durch die Geometrie des Objekts, das ergriffen wird, bestimmt wird. Bei dem gegebenen riesigen Bereich von möglichen Greifposen, Objektgeometrien und Robotergreiferkonstruktionen sind herkömmliche Steuerungsverfahren und -systeme zum Ausführen einer befohlenen Greifpose durch einen mehrachsigen Robotergreifer bei bestimmten Anwendungen suboptimal.
  • ZUSAMMENFASSUNG
  • Es werden hier ein System und ein zugehöriges Verfahren offenbart, die eine intuitive Steuerung auf hoher Ebene für den Bewegungsablauf, das Positionieren, Problemlösen und Programmieren eines mehrachsigen Robotergreifers bei der Ausführung einer befohlenen Greifpose bereitstellen. Eine beschleunigte Greifposenkonfiguration kann bei der Greifsteuerung von relativ komplexen geschickten Robotergreifern von besonderem Nutzen sein, speziell bei der Ausführung von relativ unstrukturierten Aufgaben, wie dem Aufnehmen aus einem Fach, der Handhabung von Material und der Platzierung oder dem Zusammenbau von Teilen.
  • Robotergreifer werden herkömmlich mit Hilfe von zeitintensiven Programmierverfahren für einzelne Achsen und Sensoren programmiert, wobei jede Teilbewegung und jede zugehörige Sensorinteraktion in einem von einem Rechner ausführbaren Softwarecode explizit definiert wird. Die hier offenbarte Herangehensweise weicht von diesem aktuellen Stand der Technik ab, indem sie mit Hilfe einer Vorrichtung, z. B. einer interaktiven graphischen Benutzerschnittstelle (GUI) und einer zugehörigen Logikhardware und Softwaremodulen, die möglicherweise eine Vorrichtung mit einem berührungsempfindlichen Bildschirm umfasst, eine gewünschte Greifpose intuitiv darstellt und deren Auswahl ermöglicht. Die GUI kann auf einem Handprogrammiergerät, einer Bedienerkonsole oder einer Funkvorrichtung angeordnet sein. Unabhängig von ihrer Konfiguration liefert die GUI geeignete Mittel zur Instruktion des Robotergreifers, wobei jede Greifpose ein entsprechendes sensorisches Abbild aufweist. Die sensorischen Abbilder stellen einen allgemeinen Weg zum Ausführen und Programmieren von verschiedenen Familien von Greifaufgaben bereit.
  • Im Speziellen umfasst ein System, wie es hier offenbart ist, einen Robotergreifer und einen Controller. Der Robotergreifer, der eine sensorische Matrix enthält, ist ausgestaltet, um in Ansprechen auf ein Greifbefehlssignal eine Greifpose auszuführen, um dadurch eine Komponente zu ergreifen. Der Controller steht in Verbindung mit dem Robotergreifer und enthält eine interaktive GUI mit einem berührungsempfindlichen Bildschirm oder einer anderen Kombination aus einer Anzeige und einer Zeigevorrichtung, sowie Speicher und einen Prozessor. In einem manuellen Modus oder einem Programmiermodus erzeugt die GUI ein Bewegungsablaufsignal in Ansprechen auf eine Eingabe von einem Benutzer, z. B. eine Berührungsbewegung, eine Mauseingabe oder ein Softwaresignal, während eine oder mehrere sensorische Abbilder, die im Speicher aufgezeichnet sind, kalibrierte Grenzen für die Greifpose für jeden Sensor, der in der sensorischen Matrix enthalten ist, bereitstellen. Der Controller bewegt den Robotergreifer in Ansprechen auf das Bewegungsablaufsignal auf der Grundlage der Absicht des Benutzers, die mit Hilfe der GUI bereitgestellt wird, oder auf der Grundlage eines Anwenderprogramms in die Greifpose.
  • Jede der Greifposen kann ein entsprechendes sensorisches Abbild aufweisen. Der Robotergreifer kann mindestens einen Finger oder einen Finger und mindestens einen diesem gegenüberstellbaren Daumen aufweisen. Bei einer beispielhaften humanoiden Ausführungsform können vier gelenkige Finger und eine Handfläche verwendet werden, wobei die sensorische Matrix Sensoren enthält, die an jedem der Finger, dem Daumen und der Handfläche positioniert sind. Die sensorische Matrix kann Objektanwesenheits-, Kraft- oder Lastsensoren, einen Gewichtssensor und/oder einen Wärmesensor enthalten. Die interaktive GUI kann ein Rad mit Bewegungsabläufen mit Symbolen anzeigen, das eine Nabe, welche einer neutralen Pose des Robotergreifers entspricht, und Symbole für zugehörige Greifposen enthält, die um einen Umfang des Rads mit Bewegungsabläufen herum angeordnet sind. Diese Anzeige kann den gegenwärtigen Status des Greifers auf dynamische Weise anzeigen, wenn eine Aufgabe in einem Automatikmodus ausgeführt wird oder wenn während einer Operation pausiert wird, um Fehler beim Betriebsstatus, der Greifpose oder dem Zustand der Sensormatrix zu finden und abzustellen. Zudem kann der Greifcontroller einen ”Teach-Modus” ausführen, bei dem die sensorische Matrix mit Hilfe von Werten gefüllt wird, die hergeleitet werden, indem ein ”Schnappschuss” der tatsächlichen Sensormatrixdaten aufgezeichnet oder aufgenommen wird, die bei einem manuellen Bewegungsablauf in eine Pose oder durch Zurückfahren des Robotergreifers in eine gewünschte Pose beobachtet wurden.
  • Es wird auch ein Verfahren offenbart, um einen Robotergreifer, der eine sensorische Matrix aufweist, die mehrere Sensoren enthält, in einem manuellen oder einem Teach-Modus zu steuern. Das Verfahren umfasst, dass mit Hilfe einer interaktiven GUI ein Bewegungsablaufsignal unter Verwendung einer absichtlichen Bewegung erzeugt wird, z. B. einer Geste von einem Benutzer auf einem berührungsempfindlichen Bildschirm, und dass das Bewegungsablaufsignal mit Hilfe eines Greifcontrollers empfangen wird. Das Verfahren umfasst außerdem, dass mit Hilfe des Greifcontrollers in Ansprechen auf das Bewegungsablaufsignal ein Greifbefehlssignal erzeugt wird und dann eine gewählte von mehreren Greifposen mit Hilfe des Robotergreifers mit Bezug auf eine Komponente in Ansprechen auf das Greifbefehlssignal ausgeführt wird.
  • Zudem kann das Verfahren umfassen, dass Rückmeldesignale von der sensorischen Matrix während der Ausführung der gewählten Greifpose empfangen werden, die empfangenen Rückmeldesignale mit einem entsprechenden sensorischen Abbild verglichen werden, das für die gewählte Greifpose kalibrierte Grenzen für jeden Sensor bereitstellt, der in der sensorischen Matrix enthalten ist, und dass eine Steuerungsmaßnahme mit Bezug auf den Robotergreifer ausgeführt wird, wenn beliebige der empfangenen Rückmeldesignale aus ihren entsprechenden kalibrierten Grenzen herausfallen. Um die Anzeige von Bedingungen außerhalb der Grenzen zu erleichtern, können die Rückmeldesignale oder andere Daten in der Anzeige des sensorischen Abbilds hervorgehoben werden, indem Farben verändert werden oder durch andere graphische Techniken, so dass die Aufmerksamkeit eines Benutzers auf die Bedingung gelenkt wird. Bei einer möglichen Ausführungsform kann ein bzw. können mehrere spezielle Programme ausgeführt werden, während diese Anzeige an den Benutzer geliefert wird.
  • Die vorstehenden Merkmale und Vorteile und andere Merkmale und Vorteile der vorliegenden Erfindung ergeben sich leicht aus der folgenden genauen Beschreibung der besten Arten, um die Erfindung auszuführen, wenn sie in Verbindung mit den beiliegenden Zeichnungen gelesen wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung eines Systems mit einem Controller und einem mehrachsigen Robotergreifer, wobei eine Greifposensteuerung des Robotergreifers mit Hilfe des Controllers wie hier offengelegt ausgeführt wird.
  • 2 ist eine Veranschaulichung in einer schematischen perspektivischen Ansicht eines geschickten Robotergreifers, der in dem System von 1 verwendet werden kann.
  • 3 ist eine schematische Darstellung eines Rads mit Greifposen, welches mit Hilfe der in 1 gezeigten GUI für einen Benutzer angezeigt werden kann.
  • 4 ist ein schematisches sensorisches Abbild für eine mögliche Greifpose.
  • 5 ist ein schematisches sensorisches Abbild für eine andere mögliche Greifpose.
  • 6 ist ein Flussdiagramm, das ein beispielhaftes Verfahren zum Steuern des Robotergreifers in dem in 1 gezeigten System beschreibt.
  • GENAUE BESCHREIBUNG
  • Mit Bezug auf die Zeichnungen, bei denen gleiche Bezugszeichen in den mehreren Ansichten gleiche oder ähnliche Komponenten bezeichnen, zeigt 1 einen Arbeitsraum 10 mit einem System 20. Das System 20 enthält einen mehrachsigen Robotergreifer 16 und einen Greifcontroller (GC) 40, wobei der letztere eine interaktive graphische Benutzerschnittstelle (GUI) 25 enthält. Die GUI 25 kann eine Vorrichtung mit einem berührungsempfindlichen Bildschirm sein, sei es eine Vollbild-Vorrichtung, ein Handprogrammiergerät, eine Bedienerkonsole oder eine Funkvorrichtung. Anstelle eines berührungsempfindlichen Bildschirms können die Mittel für die Interaktion mit einem Benutzer eine Zeigevorrichtung oder ein Satz von Funktionstasten an der Vorrichtung sein, wobei ein Benutzer seine oder ihre Absicht für einen gegebenen Griff signalisiert und das Ergebnis an der GUI 25 betrachtet. Folglich agiert die GUI 25, wie hier offengelegt ist, als Eingabe- oder Befehlsvorrichtung sowie als Vorrichtung zur Statusüberwachung, zur Wartung und zur Problemlösung, wenn sie sich in diesen speziellen Modi befindet.
  • Der Greifcontroller 40 steuert die Ausführung einer befohlenen Greifpose durch den Robotergreifer 16. Bei dem in 1 gezeigten Beispiel ist der Robotergreifer 16 als geschickte humanoide Roboterhand mit vier gelenkigen Fingern 18 und einem gegenüberstellbaren Daumen 19 ausgestaltet. Bei anderen Ausführungsformen können mehr oder weniger aktive oder passive Finger 18 und/oder kein Daumen 19 verwendet werden, ohne den beabsichtigten erfinderischen Umfang zu verlassen.
  • Der Robotergreifer 16 kann mit einer Basis 17 verbunden sein, beispielsweise wie gezeigt mit Hilfe eines Arms 13. Der Robotergreifer 16 bewegt sich bezüglich der Basis 17, die entweder starr oder beweglich sein kann, in Ansprechen auf Greifbefehle (Pfeil SGC), die von dem Greifcontroller 40 gesendet werden. Sensorische Rückmeldedaten (Pfeil SFB) werden vom Robotergreifer 16 und/oder optional von externen Sensoren 128, wie in 2 gezeigt ist, dem Greifcontroller 40 zugeführt und anschließend verwendet, wie nachstehend mit Bezug auf 26 offengelegt wird.
  • Bei einer typischen Anwendung kann der Robotergreifer 16 auf einer Produktionsebene in einem Materialhandhabungsprozess, einem Prozess zum Entnehmen aus einem Fach und/oder in einem Montageprozess verwendet werden. Bei einem derartigen Prozess kann dem Robotergreifer 16 befohlen werden, sich mit Bezug auf ein Gestell 12 zu bewegen, wie durch einen Pfeil A mit zwei Spitzen angezeigt ist, eine Komponente 11 aus dem Gestell 12 auszuwählen, die Komponente in einer Befehlsgreifpose zu ergreifen und dann die ergriffene Komponente 11 an eine spezielle Stelle zu transportieren, z. B. zur Teileplatzierung, Montage oder Verpackung. Um das automatische Aufnehmen zu erleichtern, kann das Gestell 12 in verschiedene Fächer 12A, 12B, 12C unterteilt sein, wobei jedes der Fächer 12A–C potentiell ein eindeutiges Teil oder eine eindeutige Komponente 11 enthält. Diese sind in 1 jeweils als Komponenten 11A, 11B und 11C dargestellt. In Abhängigkeit von der Anwendung können mehr oder weniger Fächer 12 verwendet werden.
  • Die relative Geometrie jeder der Komponenten 11A, 11B und 11C kann sich unterscheiden. Die Unterschiede bei der Geometrie, beispielsweise in der Größe, Form oder Kontur sowie beim relativen Gewicht oder der Zusammensetzung können unterschiedliche Greifposen erfordern. Außerdem kann auch in einem gegebenen Fach 12A, 12B oder 12C die Orientierung der entsprechenden Komponente 11A, 11B oder 11C mit Bezug auf den Robotergreifer 16 von einer erwarteten Orientierung abweichen. Zum Beispiel kann die Komponente 11A im Fach 12A auf ihrer Seite liegen, statt wie gezeigt aufrecht stehen. Alles Vorstehende kann die Ausführung einer anderen Greifpose durch den Robotergreifer 16 erfordern, wobei Justierungen manchmal in Echtzeit notwendig sind. Daher stellt unabhängig von der Anzahl der Freiheitsgrade, die durch den Robotergreifer 16 bereitgestellt werden, das Befehlen einer Bewegung in eine geeignete Greifpose ein einzigartiges Steuerungsproblem bereit. Das vorliegende Steuerungssystem 20 ist daher bestrebt, dieses Problem zu lösen, wobei die für einen Benutzer dargestellte Schnittstelle relativ zu herkömmlichen Steuerungsverfahren erheblich vereinfacht wird.
  • Der Robotergreifer 16 von 1 kann in Verbindung mit einer sensorischen Matrix 21 verwendet werden, wobei ein Beispiel für diese in 2 gezeigt und nachstehend mit Bezug auf diese Figur erläutert wird. Bei einer speziellen Ausführungsform zeigt die GUI 25 etwas an, das hier nachstehend als Bewegungsablaufabbild 26 bezeichnet wird, wobei dessen Details nachstehend mit Bezug auf 3 beschrieben werden. 45 beschreiben sensorische Matrizen SM1 und SM2 für zwei beispielhafte Greifposen, wobei diese sensorischen Matrizen in 1 allgemein als SM beschriftet sind. Das Format der sensorischen Matrizen kann auf die Anzahl der verschiedenen Erfassungselemente in der sensorischen Matrix skaliert sein. Die sensorischen Matrizen werden so verwendet, wie es nachstehend mit Bezug auf 45 sowie mit Bezug auf das Verfahren 100 von 6 offengelegt ist.
  • Mit Bezug auf den Robotergreifer 16 von 1 kann bei einer möglichen Ausgestaltung eine Greifaufgabenplanung auf einer obersten Ebene mit Hilfe eines Aufgabencontrollers (TC) 30 stattfinden, der nach Bedarf eine Rückmeldung (Pfeil 43) von dem Greifcontroller 40 während der Ausführung einer Aufgabe empfangen kann, z. B. um genau zu bestimmen, wo sich der Robotergreifer 16 bei einer gegebenen Aufgabe befindet. Der Aufgabencontroller 30 kann Teil des Systems 20 sein oder auch nicht. Eine gegebene Aufgabensequenz kann auf dieser oberen Steuerungsebene als Aufgabenbefehl (Pfeil STC) befohlen werden, etwa ”Hole Komponente 11A aus Fach 12A und liefere sie zu Palette B zur Auslieferung”. Der Greifcontroller 40 empfängt den Aufgabenbefehl (Pfeil STC), wobei ein Benutzer des Greifcontrollers 40 über die GUI 25 auf ein entsprechendes sensorisches Abbild (SM) zugreift. Danach kann die GUI 25 das Bewegungsablaufabbild 26 derart anzeigen, dass der Benutzer die manuelle oder automatische Ausführung der benötigten Greifpose leicht planen und steuern kann. Die sensorischen Rückmeldesignale (Pfeil SFB) vom Greifcontroller 40 können nach Bedarf an den Aufgabencontroller 30 geliefert werden, um Informationen wie etwa Statusaktualisierungen in Echtzeit zu übermitteln.
  • Der Aufgabencontroller 30 und der Greifcontroller 40, die in 1 gezeigt sind, können als Computervorrichtungen ausgeführt sein, die beliebige benötigte Hardware- und Softwareelemente aufweisen, wie etwa jeweilige Prozessoren 32, 42, einen konkreten nicht vorübergehenden Speicher 34, 44, z. B. ROM, optische Medien, Flash-Speicher usw., sowie beliebigen benötigten vorübergehenden Speicher wie etwa RAM und EEPROM. Der Aufgabencontroller 30 und der Greifcontroller 40 können alle notwendigen Eingabe/Ausgabe-Vorrichtungen (I/O-Vorrichtungen), Sender/Empfänger 36, 46 und dergleichen enthalten. Greifbefehlssignale (Pfeil SGC) vom Greifcontroller 40 werden über eine geeignete Steuerungsverbindung 45, z. B. einen Controllerbereichsnetzwerkbus (CAN-Bus), eine serielle Verbindung, oder drahtlos an den Robotergreifer 16 übertragen. Schließlich gibt der Greifcontroller 40 ein Steuerungssignal (Pfeil CX) an eine oder mehrere Vorrichtungen aus, die möglicherweise einen Speicher 44 oder eine externe Anzeige (nicht gezeigt) enthalten, wenn eine Steuerungsmaßnahme mit Bezug auf den Robotergreifer 16 ausgeführt wird, wie nachstehend mit Bezug auf Schritt 110 von 6 erörtert wird.
  • Mit Bezug auf 2 enthält der Robotergreifer 16 von 1 die vorstehend kurz erwähnte sensorische Matrix 21. Die sensorische Matrix 21 enthält mehrere Sensoren 28, 29, welche mit der Struktur des Robotergreifers 16 verbunden oder darin eingebettet sein können, z. B. in oder an den verschiedenen Fingern 18, dem Daumen 20 und einer Handfläche 23. Optional kann ein oder können mehrere externe Sensoren 128 als Teil der sensorischen Matrix 21 verwendet werden, zum Beispiel ein Bildgebungssystem, eine elektrooptische oder eine Infrarotkamera oder andere entfernte Sensoren. Die Sensoren 28, 29 können Berührungs-/taktile Sensoren, Kraft- und/oder Drehmomentsensoren, Oberflächendrucksensoren, thermische/Infrarot-Sensoren und dergleichen enthalten. Andere in der Struktur des Robotergreifers 16 montierte (nicht gezeigte) Sensoren können Informationen zum Fingerort im kartesischen Raum, zum Gelenkdrehmoment, zum Motorstrom, zur Spannung oder zur Impedanz für alle motorgetriebenen Gelenke, Geschwindigkeiten und dergleichen bereitstellen. Das in 1 schematisch gezeigte sensorische Abbild (SM) beschreibt die spezielle Konfiguration und gewünschte Einstellungen der verschiedenen Parameter, welche das Fortschreiten eines Griffs und die Zustände der sensorischen Matrix 21 für die letztendliche Ausführung einer speziellen Greifpose darstellen. Optional kann die sensorische Matrix 21 auch externe Sensoren enthalten, d. h. mit Bezug auf den Robotergreifer 16, zum Beispiel optische oder Bildgebungssysteme, z. B. die externen Sensoren 128 von 2. Die Rückmeldung von den externen Sensoren 128 kann auf analoge Weise mit erwarteten Grenzen verglichen werden.
  • Mit Bezug auf 3 kann, nachdem der Greifcontroller 40 von 1 den Aufgabenbefehl (Pfeil STC) vom Aufgabencontroller 30 beispielsweise in einem Automatikmodus empfangen hat, die gewünschte Greifpose zum Ausführen der befohlenen Aufgabe von einem Benutzer mit Hilfe des Bewegungsablaufabbilds 26 intuitiv geplant werden. In einem manuellen Modus oder in einem ”Teach”-Modus kann der Benutzer eine gewünschte Aufgabe erstellen und die Greifpose kann durch den Benutzer befohlen werden, ebenfalls intuitiv über Eingaben an das Bewegungsablaufabbild 26. Bei anderen Ausführungsformen kann die Auswahl der Greifpose durch Software ausgeführt werden, d. h. ohne eine Eingabe von dem Benutzer. Die geeignete Greifpose kann zum Beispiel von der Komponente 11 selbst stammen, zum Beispiel über eine Greiftaxonomie und/oder die bekannte Geometrie des Robotergreifers 16.
  • In 3 ist ein beispielhaftes Bewegungsablaufabbild 26 gezeigt, das ein Rad mit Bewegungsabläufen 51 aufweist, wobei die Anzahl und die Art von Greifposen 50P von 3, die um den Umfang des Rads mit Bewegungsabläufen 51 herum angeordnet sind, ein Beispiel ohne Einschränkung von nur einer von vielen möglichen Konfigurationen zeigt. Mehrere Arten von Komponenten können auf dem Rad mit Bewegungsabläufen 51 angezeigt werden, z. B. die Komponente 11A von 1, die als ein beispielhafter Zylinder gezeigt ist, und eine kugelförmige Komponente 11D. Wie die Anzahl von Greifposen 50P ist analog auch die Anzahl und Art der Komponenten, die um den Umfang des Rads mit Bewegungsabläufen 51 herum angezeigt werden, nicht auf die Ausführungsform von 3 begrenzt. Die speziellen Greifposen 50P, die mit Hilfe des Rads mit Bewegungsabläufen 51 in der Praxis gezeigt werden, können den speziellen Komponenten entsprechen, die im Gestell 12 von 1 angeordnet sind.
  • In Abhängigkeit von der Anzahl verschiedener Komponenten und Greiftypen, die zum Implementieren eines speziellen Prozesses verwendet werden, kann es mehrere Ebenen oder Seiten mit Bewegungsablaufbildschirmen bei einem gegebenen Bewegungsablaufabbild 26 geben, die zusammen den für jede Komponente 11 unterschiedlichen Bereich von Greiftypen gruppieren. Dieses Schema kann nach Bedarf erweitert werden, um eine Interaktion mit dem bzw. den Rädern mit Bewegungsabläufen 51 zu erleichtern und um eine natürliche Gruppierung von Greiftypen bereitzustellen, die für die gewünschten Aufgaben relevant sind. Auf der Grundlage der Geometrie der Komponente 11, die ergriffen wird, können verschiedene Greiftypen dargeboten werden, während andere ausgeschlossen sein können. Ein optionales Programm oder eine optionale Logik kann verwendet werden, um auf der Grundlage der Komponente 11 automatisch einen korrekten Greiftyp und eine korrekte Greifpose zu identifizieren. Ein ähnliches Programm kann auch in dem vorstehend erwähnten Automatikmodus verwendet werden.
  • Das beispielhafte Bewegungsablaufabbild 26 von 3 kann eine intuitive Schnittelle mit einem berührungsempfindlichen Bildschirm oder eine andere geeignete interaktive Schnittstelle zur vereinfachten Bewegungsablaufplanung eines gewünschten Greiftyps bereitstellen. Es gibt verschiedene Weisen, auf die ein Roboter ein Objekt ergreifen kann. Der Bereich mit angezeigten Greifposen 50P wird daher von der Konstruktion des Robotergreifers 16 abhängen, etwa der Anzahl der Finger 18, über die er verfügt, ob der Greifer 16 einen Daumen aufweist oder nicht und so weiter. Zusätzliche Greifmenüs G1 und G2 können zusammen mit dem Rad mit Bewegungsabläufen 51 angezeigt werden, um es einem Benutzer zu ermöglichen, andere mögliche Greifposen auszuwählen, und daher kann der Greifcontroller 40 von 1 nach Bedarf so ausgestaltet werden, dass er zu der speziellen anliegenden Aufgabe zu passt. Zusätzlich kann ein Editierknopf (E) angezeigt werden, um die verschiedenen sensorischen Abbilder (SM) von 1 zu editieren, wie nachstehend mit Bezug auf 45 beschrieben ist.
  • Bei einer Nabe 27 des Rads mit Bewegungsabläufen 51 liegt, was hier als eine neutrale Pose 50N bezeichnet wird, beispielsweise eine offene Hand oder die wahrscheinlichste Start- oder Endpose eines Robotergreifers 16 für den speziellen Satz von Greifposen 50P, der angezeigt wird. Ein Benutzer kann einfach einen Finger von der Nabe 27 zu der gewünschten Greifpose 50P verschieben, um dadurch ein entsprechendes proportionales Bewegungsablaufsignal (Pfeil SJ) zu erzeugen, um die Ausführung der gewählten Greifpose 50P auf manuelle Weise einzuleiten. Die interne Logik der GUI 25 und/oder des Greifcontrollers 40 übersetzt den Kontakt des berührungsempfindlichen Bildschirms, die Aktivierung der Zeigervorrichtung und/oder deren Bewegung in eine entsprechende Trajektorie, wobei dies alles in dem Bewegungsablaufsignal (Pfeil JS) codiert ist. Dann passt der Greifcontroller 40 das Bewegungsablaufsignal (Pfeil SJ) an die gewählte Greifpose 50P an.
  • Eine Greifwegplanung auf oberster Ebene, die jeder der Greifposen 50P zugrunde liegt, kann in einer Vielfalt von unterschiedlichen Weisen durchgeführt werden, wie auf dem Gebiet gut bekannt ist. Jede Greifpose 50P weist daher einen entsprechenden Greifweg auf, der im Speicher 44 des Greifplaners 40 codiert ist. Alle herkömmlichen Greifwegplanungstechniken, die verwendet werden, müssen jedoch zur Ausführung der angezeigten Greifpose 50P führen, die schließlich gewählt wird. Das Verschieben des Fingers des Benutzers oder das anderweitige Anzeigen der Absicht auf dem Bewegungsablaufabbild 26 befiehlt daher dem Greifcontroller 40, den Robotergreifer 16 von seiner letzten bekannten Position zu einer neutralen Pose 50N zu bewegen oder ”laufen zu lassen” und bewegt dann fortschreitend die aktiven Glieder des Robotergreifers 16 zu der angeforderten Greifpose 50P hin, wobei der relative Fortschritt in 3 als 50% (halb abgeschlossen) und 100% (abgeschlossen) auf dem Strahl von der neutralen Pose (50N) zu dem abgeschlossenen Griff gezeigt ist.
  • Jede Greifpose 50P des in 3 gezeigten abgebildeten Rads mit Bewegungsabläufen 51 entspricht einem speziellen sensorischen Abbild, d. h. dem in 1 gezeigten sensorischen Abbild (SM). Ein entsprechendes sensorisches Abbild ist jeder Greifpose 50P als ein Satz von kalibrierten Bereichen oder Grenzen zugeordnet. Bei einer möglichen Ausführungsform öffnet das Wählen einer speziellen Greifpose 50P, z. B. durch Doppelklicken auf ein entsprechendes Symbol, das die Greifpose 50P repräsentiert, das darunterliegende sensorische Abbild für diese Greifpose. Für jeden Standardgreiftyp können sensorische Standardabbilder aufgezeichnet sein, zum Beispiel Kraftgriffe, mittelstarke Griffe und Präzisionsgriffe sowie andere Konfigurationen, die für die spezielle Konstruktion des Robotergreifers 16 relevant sind, der verwendet wird. ”Geteachte” Griffe und ihre jeweiligen gekoppelten sensorischen Abbilder können auf einem Satz von Bildschirmen erscheinen, der für programmierte Aufgaben reserviert ist, zusätzlich zu einem vorab geladenen Satz von Standardgreifposen 50P.
  • Optional kann der Greifcontroller 40 von 1 benachbarte Greifposen 50P automatisch vermischen, zum Beispiel, wenn ein Benutzer einen Finger verschiebt oder auf andere Weise eine Auswahl zwischen benachbarten Greifposen 50P angibt, statt eine direkte lineare Route von der neutralen Pose 50N zu einer speziellen Greifpose 50P zu nehmen. Das Bewegungsablaufabbild 26 von 3 stellt daher sowohl eine detaillierte Steuerung einzelner Glieder als auch einen Zugriff auf entsprechende sensorische Abbilder für jede mögliche Greifpose 50P bereit, um zu ermöglichen, dass jede erreichbare Konfiguration des Robotergreifers 16 zur zukünftigen Verwendung programmiert werden kann.
  • Mit Bezug auf 4 ist ein mögliches erstes sensorisches Abbild SM1 mit Zeilen R1–R9 für eine beispielhafte Greifpose gezeigt, die her als ”Kraftgriff” mit mehreren Fingern für eine rohrförmige Komponente in Zeile R1 gezeigt ist. Das sensorische Abbild SM1 stellt eine Datentabellendarstellung der befohlenen Greifpose mit zugehörigen Bereichen oder Grenzen für die verschiedenen Sensoren bereit, welche die in 2 gezeigte sensorische Matrix 21 bilden. Das sensorische Abbild SM1 bildet eine Datenstruktur und ein Visualisierungswerkzeug für unterschiedliche Zustandskonfigurationen und Ansichten des Robotergreifers 16, seinen Sensorstatus und auch für Greifbestätigungsinformationen. Wie in Zeile R2 gezeigt ist, schreitet die befohlene Greifpose in Schritten (S) 1–4 von offenen oder bereiten Fingern (RF) bei Schritt 1 zum Schließen der Finger (CF) um die Komponente 11 (Schritt 2), zum Drücken der Finger (PF) auf die ergriffene Komponente (Schritt 3) und dann zum Anheben der Komponente (L11) bei Schritt 4 fort, wobei die verschiedenen Aktionen in Zeile R3 gezeigt sind.
  • Eine Rückmeldung (FB) des sensorischen Abbilds SM1 ist in Zeilen R4–R7 gezeigt. Die Zeile R4 listet die speziellen Gelenke (J) jedes identifizierten Fingers 18 oder Daumens 19 der Zeilen R5 auf. 18I, 18M, 18R und 18P entsprechen dem Zeigefinger, dem Mittelfinger, dem Ringfinger und dem kleinen Finger 18 des Robotergreifers 16. Jede nicht angelenkte Struktur des Robotergreifers 26, etwa die Handfläche 23 von 2, kann in Zeile R6 identifiziert sein. Zusätzliche Parameter wie etwa die Position (POS), das Gewicht (W), die Wärme, die Temperatur (T) und/oder andere sensorische Daten können in den Zeilen R7 identifiziert sein.
  • Mit Bezug auf die Zeilen R4 kann ein Benutzer die Grenzen für jedes Gelenk programmieren, zum Beispiel als Kraftgrenzen. In der Bereit-Position von Schritt 1 beispielsweise, sollten keine Kraftmesswerte vorhanden sein, da der Robotergreifer 16 mit der Komponente 11 nicht in Kontakt steht. Bei der Schließposition von Schritt 2 kann Kraft wie gezeigt auf einen kalibrierten Bereich eingestellt sein, wobei die gesamte Kraft nur an den zweiten und dritten Gelenken des Daumens und der Finger bereitgestellt wird. Für diesen Griff werden für die Oberseite, die Mitte oder die Unterseite der Handfläche keine Lesewerte bereitgestellt. Bei dem Schließschritt, d. h. Schritt 2, sollte Wärme in dem angegebenen Bereich gemessen werden. Da der Robotergreifer 16 in Schritt 3 auf die Komponente 11 drückt oder sie einklemmt, steigen die zulässigen Kraftlesewerte an, und nun sollte das Gewicht zusammen mit der Wärme erfasst werden. Der Gewichtwert kann leicht ansteigen, wenn die Komponente 11 angehoben wird.
  • Simulationspositionen sind in Zeile R8 für eine andere Art von Robotergreifer 116 gezeigt, d. h. einen Greifer mit drei Fingern wie gezeigt, um einige der möglichen Fehlermodi (FM) von Zeile R9 zu beschreiben, die während einer Greifsimulation auftreten können. Zum Beispiel kann in Schritt 1 ein Kontakt zwischen dem Robotergreifer 116 und der Komponente 11 durch Positionsfehler (POS) verursacht werden. Solche Informationen können verwendet werden, um ein Trainieren des Robotergreifers 116 zu unterstützen, zum Beispiel unter Verwendung eines Teach-Moduls, wie nachstehend erwähnt wird. Andere Fehler bei der Position können sich bei den Schritten 2 und 3 ergeben, wenn zu wenig oder zu viel Kraft durch den Robotergreifer aufgebracht wird, wenn er zu fest zusammendrückt (SQ), oder vielleicht nicht genügend Kraft, so dass die Komponente 11 rutscht (SL). Diese Fehlermodi können mit Bezug auf die Grenzen detektiert werden, die in dem sensorischen Abbild SM1 eingestellt sind, z. B. das Rutschen der Komponente in Schritt 4, wie in Zeile R9 gezeigt ist. Grenzüberschreitungsbedingungen können graphisch hervorgehoben werden, so dass die Bedingung unter den vielen möglichen Parametern, die bei jedem gegebenen Zeitpunkt im Spiel sind, leicht erkannt werden kann.
  • Ein weiteres beispielhaftes sensorisches Abbild SM2 ist in 5 für einen Präzisionsgriff gezeigt, der hier als ein Zangen- oder Pinzettengriff für eine zylindrische Komponente 11A, etwa einen Bleistift, gezeigt ist. Wie bei dem Beispiel von 4 ist das sensorische Abbild SM2 mit Grenzen für jeden der Sensoren in der in 2 gezeigten sensorischen Matrix 21 gefüllt.
  • Optional können die in den Zeilen R4–R7 von 4 und 5 gezeigten Rückmeldegrenzen über die Ausführung eines ”Teach”-Modus bestimmt werden, wobei der bei der Simulation verwendete Robotergreifer 116 oder alternativ ein berührungsempfindlicher Handschuh, der mit dem gleichen Sensor ausgestattet ist, manuell verfahren, zurückgefahren oder anderweitig in verschiedene Greifposen versetzt werden kann, um die geeigneten Grenzen der sensorischen Reaktion zu lernen und/oder um Greifpositionen zu verfeinern. Beispielsweise kann der Robotergreifer 116 eine Komponente 11 zum allerersten Mal ergreifen und daher verfügt der Robotergreifer 116 über keine vorherige Erfahrung mit der Komponente 11. In einem Teach-Modus kann man einen Griff mit einem Nenn-Kraftbetrag befehlen und dann verifizieren, welche Sensoren ”aufleuchten” oder aktiviert werden, sowie die zugehörigen Sensorlesewerte. Wenn der Griff von dem Benutzer oder alternativ von der Logik oder Software als zufriedenstellend angesehen wird, können dann dieser spezielle Griff und sein zugehöriges sensorisches Abbild zur zukünftigen Verwendung gespeichert werden. Griffe und/oder ein erwartetes sensorisches Abbild können bei einer anderen Ausführungsform auch aus einem CAD-basierten Simulationsmodell heruntergeladen werden. Die GUI 25 kann verwendet werden, um zwischen Modi umzuschalten, oder für eine Vielfalt von anderen Funktionen, die hier nicht explizit erörtert werden, wie der Fachmann versteht.
  • Statistische Lernmodelle können verwendet werden, um sowohl die sensorischen Abbilder, z. B. SM1 oder SM2, als auch die Greifposen zu optimieren. Auf diese Weise können die gewünschten Endzustände und Schwellenwerte, welche die sensorischen Abbilder SM1, SM2 bilden, dem Robotergreifer 16 ”geteacht” werden und Schwellenwertgrenzen durch die Lernmodelle eingestellt werden, statt dass sie willkürlich eingestellt werden. Eine derartige Vorgehensweise kann dazu beitragen, die Notwendigkeit einer späteren Fehlerkorrektur zu verringern, da die tatsächlichen Grenzen denjenigen entsprechen sollten, die zur Ausführung des gewünschten Griffs benötigt werden.
  • Mit Bezug auf 6 ist ein beispielhaftes Verfahren 100 gezeigt, um das System 20 und den Robotergreifer 16 von 1 bei der Ausführung einer befohlenen Greifpose zu verwenden. Sofern es nicht anderweitig angegeben ist, bezieht sich jeder nachstehend beschriebene Schritt auf in 1 gezeigte Strukturen. Schritt 102 umfasst, dass eine befohlene Aufgabe vom Aufgabencontroller 30 in den Greifcontroller 40 geladen wird, was in 6 als LT abgekürzt ist. Zum Beispiel kann dieser Schritt umfassen, dass die Greifbefehle (Pfeil SGC) empfangen und verarbeitet werden. Die Aufgabe, die geladen wird, kann eine befohlene Zielkomponente 11, einen Startzustand und einen Zielzustand beschreiben, zum Beispiel ”Hole eine Komponente 11A aus dem Fach 12A und lege die Komponente 11A im Verpackungsbereich X ab”. Die befohlene Aufgabe kann Teil eines automatisch ausgeführten Zyklus sein oder in Ansprechen auf den Empfang eines Lieferauftrags bei einer beispielhaften Warelageranwendung erzeugt werden, oder sie kann in Ansprechen auf einen Fertigungsauftrag oder dergleichen erzeugt werden. Das Verfahren 100 geht zu Schritt 104 weiter, nachdem die Aufgabe in den Speicher 44 des Greifcontrollers 40 geladen ist.
  • Bei Schritt 104 führt der Greifcontroller 40 die befohlene Aufgabe auf die vorstehend beschriebene Weise aus (EXT). Zum Einleiten von Schritt 104, z. B. im Teach-Modus, kann ein Benutzer die GUI 25 verwenden, um ein vorab aufgezeichnetes Rad mit Bewegungsabläufen 51 aufzurufen, wie in 3 gezeigt ist, wobei das Rad mit Bewegungsabläufen 51 dem auszuführenden Griff entspricht. In Abhängigkeit von dem Bereich der Komponenten 11, die in dem Fach 12 enthalten sind, sowie von den Freiheitsgraden des Robotergreifers 16, der zum Ausführen des Griffs verwendet wird, wird die Anzahl der verfügbaren vorab programmierten Räder mit Bewegungsabläufen 51 variieren.
  • Daher kann der Benutzer in einem vorherigen Bildschirm (nicht gezeigt) ein angezeigtes Menü berühren oder auf andere Weise wählen, um als Teil von Schritt 104 ein geeignetes Rad mit Bewegungsabläufen 51 auszuwählen. Anschließend berührt der Benutzer die Nabe 27 des Rads mit Bewegungsabläufen 51, um mit dem Greifsteuerungsprozess zu beginnen. Der gleiche Benutzer verschiebt dann einen Finger zu dem gewünschten Endzustand hin, z. B. zu einer geeigneten Greifpose 50P, wie in 3 gezeigt ist. Wenn der Robotergreifer 16 diesen Befehl empfängt und beginnt, ihn auszuführen, geht das Verfahren 100 zu Schritt 106 weiter.
  • Schritt 106 umfasst, dass die sensorischen Rückmeldesignale (Pfeil SFB) von der sensorischen Matrix 21 empfangen werden, wobei ein Beispiel für diese vorstehend mit Bezug auf 2 beschrieben ist, und die sensorischen Rückmeldesignale (Pfeil SFB) im Speicher 44 temporär aufgezeichnet werden. Schritt 106 wird während der Dauer der Ausführung der Greifpose kontinuierlich ausgeführt und daher geht das Verfahren 100 zu Schritt 108 weiter, obwohl immer noch die sensorischen Rückmeldesignale (Pfeil SFB) von der sensorischen Matrix 21 erfasst werden.
  • Bei Schritt 108 bewertet der Greifcontroller 40 die eintreffenden sensorischen Rückmeldesignale (Pfeil SFB) mit Bezug auf ein entsprechendes sensorisches Abbild, z. B. SM1 oder SM2 von 4 und 5, wie vorstehend im Detail beschrieben. Schritt 108 umfasst, dass mit Hilfe des Prozessors 42 bestimmt wird, ob die eintreffenden sensorischen Rückmeldesignale (Pfeil SFB) von der sensorischen Matrix 21 von 2 oder einer anderen sensorischen Matrix 21 in anderen Konfigurationen den Schwellenwerten oder Bereichen in dem sensorischen Abbild entsprechen. Eine angemessene Entsprechung wird in 6 durch ein Hakensymbol abgekürzt. Wenn die mit Hilfe der eintreffenden sensorischen Rückmeldesignale (Pfeil SFB) übermittelten Daten während des Fortschreitens der Zustände beim erfolgreichen Abschließen des Griffs akzeptabel sind, kehrt das Verfahren 100 zu Schritt 102 zurück, nachdem die bei Schritt 102 befohlene Aufgabe abgeschlossen ist. Andernfalls geht das Verfahren 100 zu Schritt 110 weiter.
  • Ein Teil von Schritt 108 kann umfassen, dass ein Wartungsmodus ausgeführt wird, bei dem die GUI 25 einen Status einer automatischen Operation des Robotergreifers 16 anzeigt, was umfasst, dass ein Bewegungszustand des Robotergreifers 16, die Greifpose, die gerade ausgeführt wird, und ein Fortschreiten der Greifpose angezeigt werden. Ein dynamischer Zustand des sensorischen Abbilds kann in dem Wartungsmodus ebenfalls angezeigt werden, der möglicherweise Farbcodierungsgrenzen des sensorischen Abbilds mit Hilfe von entsprechenden Farben enthält, wobei beispielsweise Rot verwendet wird, um zu zeigen, dass bestimmte Grenzen überschritten worden sind, Grün verwendet wird, um zu zeigen, dass das Verhalten in die entsprechenden Grenzen fällt, und gelb verwendet wird, um Werte zu zeigen, die sich den Grenzen nähern.
  • Schritt 110 umfasst, dass eine Steuerungsaktion mit Bezug auf den Robotergreifer 16 ausgeführt wird. Dieser Schritt kann beispielsweise umfassen, dass das Steuerungssignal (Pfeil CX) von 1 ausgegeben wird, um die Ausführung einer gewünschten Steuerungsaktion zu bewirken, etwa das Justieren der Grenzen der sensorischen Abbilder SM1 oder SM2 von 4 und 5, wenn die sensorischen Rückmeldesignale (Pfeil SFB), die aus den Bereichen herausfallen, als akzeptabel betrachtet werden, ein Ergebnis, das anzeigen würde, dass die ursprünglichen Grenzen zu konservativ waren. Es könnte die entgegengesetzte Steuerungsaktion ausgeführt werden, d. h. das Justieren der Bereichsgrenzen oder Schwellenwerte, um einen anderen Wert anzufordern, wenn der ausgeführte Griff nicht effektiv war, zum Beispiel die Komponente 11 fallen gelassen wurde. Hier könnte die Ausführung der Aufgabe an eine Ausnahmebehandlungsroutine weitergegeben werden, die für diesen speziellen Greiftyp und den Kontext in der Aufgabenausführungsabfolge geeignet ist, zur Lösung im Automatikmodus. Alternativ kann während einer Fehlerbedingung Leistung an den Robotergreifer 16 temporär unterbrochen werden, um einen Zugriff durch einen Wartungstechniker zu ermöglichen, und/oder eine Warnvorrichtung kann aktiviert werden, um eine Fehlerbedingung zu signalisieren. Sobald die für die Fehlerbedingung geeignete Steuerungsaktion ergriffen wurde, ist das Verfahren 100 beendet, wobei bei einer nachfolgenden Ausführung bei Schritt 102 aus der neutralen Pose 50N von 3 erneut gestartet wird.
  • Wie dem Fachmann im Licht der vorstehenden Offenbarung klar wird, stellt das System 20 von 1, wenn es wie hier beschrieben verwendet wird, eine vereinfachte Interaktion mit komplexen Robotervorrichtungen bereit, etwa einer geschickten Hand in einer Greiferanwendung. Das System 20 stellt eine intuitive Schnittstelle auf hoher Ebene zum Verfahren, Programmieren und Verwenden eines Robotergreifers mit vielen Sensoren und vielen Achsen bereit, etwa des in 2 gezeigten Robotergreifers 16. Wie in 3 gezeigt ist, wird eine Handaufgabendarstellung angezeigt, wobei relevante Sensorbereiche in einer kompakten Datentabelle eingestellt werden, wie in 45 gezeigt ist. Das Verfahren 100 von 6 kann daher, wenn es verwendet wird, um das System 20 von 1 zu steuern, auf Robotergreifer oder Hände mit geringer und hoher Funktionalität in einem weiten Bereich von Steuerungsarchitekturen angewendet werden.
  • Obwohl die besten Arten zum Ausführen der Erfindung der Erfindung im Detail beschrieben wurden, wird der Fachmann auf dem Gebiet, das diese Erfindung betrifft, verschiedene alternative Konstruktionen und Ausführungsformen erkennen, um die Erfindung im Umfang der beigefügten Ansprüche in die Praxis umzusetzen.

Claims (10)

  1. System, umfassend: einen Robotergreifer mit einer sensorischen Matrix, die mehrere Sensoren enthält, wobei der Robotergreifer ausgestaltet ist, um in Ansprechen auf ein Greifbefehlssignal eine ausgewählte von mehreren Greifposen mit Bezug auf eine Komponente auszuführen; und einen Greifcontroller in Verbindung mit dem Robotergreifer, der ausgestaltet ist, um das Greifbefehlssignal selektiv zu erzeugen, umfassend: eine Vorrichtung, die betrieben werden kann, um ein Bewegungsablaufsignal in Ansprechen auf eine empfangene Eingabe zu erzeugen; und einen konkreten nicht vorübergehenden Speicher, in dem ein sensorisches Abbild in der Form einer Datentabelle aufgezeichnet ist, wobei das sensorische Abbild kalibrierte Grenzen für die gewählte Greifpose für jeden Sensor bereitstellt, der in der sensorischen Matrix enthalten ist; wobei der Greifcontroller das Greifbefehlssignal an den Robotergreifer in Ansprechen auf den Empfang des Bewegungsablaufsignals von der GUI überträgt und sensorische Rückmeldesignale von der sensorischen Matrix empfängt, um dadurch die Komponente zu ergreifen.
  2. System nach Anspruch 1, wobei die Vorrichtung eine interaktive graphische Benutzerschnittstelle (GUI) ist.
  3. System nach Anspruch 2, wobei die interaktive GUI eine Vorrichtung mit einem berührungsempfindlichen Bildschirm ist, die ausgestaltet ist, um das Bewegungsablaufsignal in Ansprechen auf eine Berührungsgeste von dem Benutzer zu erzeugen.
  4. System nach Anspruch 3, wobei die interaktive GUI ausgestaltet ist, um ein Rad mit Bewegungsabläufen mit Symbolen anzuzeigen, und wobei die Symbole ein Nabensymbol, das einer neutralen Pose des Robotergreifers entspricht, und Greifposensymbole umfassen, die um einen Umfang des Rads mit Bewegungsabläufen herum angeordnet sind.
  5. System nach Anspruch 1, wobei jede der mehreren Greifposen ein entsprechendes sensorisches Abbild aufweist, das im Speicher des Greifcontrollers gespeichert ist.
  6. System nach Anspruch 1, wobei der Robotergreifer eine Handfläche und mindestens einen gelenkigen Finger aufweist, und wobei die Sensoren an jedem der gelenkigen Finger und an der Handfläche positioniert sind.
  7. System nach Anspruch 1, wobei die Sensoren der sensorischen Matrix einen Kraftsensor und/oder einen Lastsensor und/oder einen Gewichtssensor und/oder einen Temperatursensor umfassen.
  8. System nach Anspruch 1, wobei der Greifcontroller ferner ausgestaltet ist, um einen Teach-Modus auszuführen, bei dem die sensorische Matrix mit Hilfe von einigen der sensorischen Rückmeldesignale gefüllt wird, die hergeleitet werden, während der Benutzer den Robotergreifer manuell in eine Pose fährt oder zurückfährt.
  9. Verfahren zum Steuern eines Robotergreifers, der eine sensorische Matrix aufweist, die mehrere Sensoren enthält, wobei das Verfahren umfasst, dass: ein Bewegungsablaufsignal mit Hilfe einer interaktiven graphischen Benutzerschnittstelle (GUI) eines Greifcontrollers unter Verwendung einer Eingabe von einem Benutzer erzeugt wird; das Bewegungsablaufsignal mit Hilfe eines Prozessors des Greifcontrollers verarbeitet wird; mit Hilfe des Greifcontrollers in Ansprechen auf das Bewegungsablaufsignal ein Greifbefehlssignal erzeugt wird; eine ausgewählte von mehreren Greifposen mit Hilfe des Robotergreifers mit Bezug auf eine Komponente in Ansprechen auf das Greifbefehlssignal ausgeführt wird, was umfasst, dass die Komponente von dem Robotergreifer ergriffen wird; sensorische Rückmeldesignale von der sensorischen Matrix während der Ausführung der ausgewählten Greifpose empfangen werden; die empfangenen sensorischen Rückmeldesignale mit Hilfe des Greifcontrollers mit einem entsprechenden sensorischen Abbild in der Form einer Datentabelle verglichen werden, wobei das mindestens eine sensorische Abbild kalibrierte Grenzen für die ausgewählte Greifpose für jeden in der sensorischen Matrix enthaltenen Sensor bereitstellt; und eine Steuerungsaktion mit Bezug auf den Robotergreifer ausgeführt wird, wenn beliebige der empfangenen sensorischen Rückmeldesignale aus ihren entsprechenden kalibrierten Grenzen herausfallen.
  10. Verfahren nach Anspruch 9, das ferner umfasst, dass ein Rad mit Bewegungsabläufen mit Symbolen mit Hilfe der GUI angezeigt wird, was umfasst, dass ein Symbol an der Nabe oder im Mittelpunkt des Rads mit Bewegungsabläufen angezeigt wird, welches einer neutralen Pose des Robotergreifers entspricht, und dass Greifposensymbole um einen Umfang des Rads mit Bewegungsabläufen herum angezeigt werden, die jeweils mindestens einigen der mehreren Greifposen entsprechen.
DE201310113459 2013-03-14 2013-12-04 Intuitive greifsteuerung für einen mehrachsigenrobotergreifer Active DE102013113459B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/802,972 US9199376B2 (en) 2013-03-14 2013-03-14 Intuitive grasp control of a multi-axis robotic gripper
US13/802,972 2013-03-14

Publications (2)

Publication Number Publication Date
DE102013113459A1 true DE102013113459A1 (de) 2014-10-30
DE102013113459B4 DE102013113459B4 (de) 2015-05-13

Family

ID=51531445

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310113459 Active DE102013113459B4 (de) 2013-03-14 2013-12-04 Intuitive greifsteuerung für einen mehrachsigenrobotergreifer

Country Status (2)

Country Link
US (1) US9199376B2 (de)
DE (1) DE102013113459B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD812122S1 (en) * 2016-01-29 2018-03-06 Softbank Robotics Europe Robot hand
DE102017104092B3 (de) 2017-02-28 2018-05-09 Günther Battenberg Verfahren zur Überprüfung einer Funktion eines Fahrzeuges und/oder zumindest einer Bedieneinrichtung
DE102021212860A1 (de) 2021-11-16 2023-05-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Aufnehmen eines Objekts mittels eines Roboters

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
US9226796B2 (en) 2012-08-03 2016-01-05 Stryker Corporation Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path
KR102235965B1 (ko) 2012-08-03 2021-04-06 스트리커 코포레이션 로봇 수술을 위한 시스템 및 방법
WO2014145279A1 (en) 2013-03-15 2014-09-18 Leap Motion, Inc. Determining the relative locations of multiple motion-tracking devices
GB201309156D0 (en) * 2013-05-21 2013-07-03 Univ Birmingham Grasp modelling
US20150116200A1 (en) * 2013-10-25 2015-04-30 Honda Motor Co., Ltd. System and method for gestural control of vehicle systems
CA2933095A1 (en) * 2014-02-20 2015-08-27 Mark Oleynik Methods and systems for food preparation in a robotic cooking kitchen
US10768708B1 (en) * 2014-08-21 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of interacting with a robotic tool using free-form gestures
DE102014223167A1 (de) * 2014-11-13 2016-05-19 Kuka Roboter Gmbh Bestimmen von objektbezogenen Greifräumen mittels eines Roboters
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
US9801517B2 (en) 2015-03-06 2017-10-31 Wal-Mart Stores, Inc. Shopping facility assistance object detection systems, devices and methods
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US9616568B1 (en) 2015-08-25 2017-04-11 X Development Llc Generating a grasp affordance for an object based on a thermal image of the object that is captured following human manipulation of the object
WO2017083163A1 (en) 2015-11-11 2017-05-18 Mako Surgical Corp. Robotic system and method for backdriving the same
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
US9855663B1 (en) 2016-06-17 2018-01-02 X Development Llc Automated digit interchange
WO2018112025A1 (en) 2016-12-16 2018-06-21 Mako Surgical Corp. Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site
CN111246977A (zh) * 2017-03-30 2020-06-05 软机器人公司 用户辅助型机器人控制系统
JP6737764B2 (ja) 2017-11-24 2020-08-12 ファナック株式会社 ロボットに対して教示操作を行う教示装置
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10766149B2 (en) 2018-03-23 2020-09-08 Amazon Technologies, Inc. Optimization-based spring lattice deformation model for soft materials
US11148295B2 (en) * 2018-06-17 2021-10-19 Robotics Materials, Inc. Systems, devices, components, and methods for a compact robotic gripper with palm-mounted sensing, grasping, and computing devices and components
EP3653348A1 (de) * 2018-11-19 2020-05-20 Tata Consultancy Services Limited System und verfahren für einen intelligenten, durch 3d-bildgebung geführten robotergreifer
CN111273572A (zh) * 2018-12-04 2020-06-12 北京猎户星空科技有限公司 一种动作分子模板的创建方法及装置、设备和存储介质
EP3917864A4 (de) * 2019-01-31 2022-10-26 Righthand Robotics, Inc. Greifvorrichtungsmodalitäten
EP3950409A4 (de) * 2019-04-03 2022-06-29 Envision Energy Co., Ltd. Automatisches laden eines fahrzeugs und betriebsverfahren dafür und automatisches ladesystem
DE102019207017B3 (de) * 2019-05-15 2020-10-29 Festo Se & Co. Kg Eingabeeinrichtung, Verfahren zur Bereitstellung von Bewegungsbefehlen an einen Aktor und Aktorsystem
US20210031368A1 (en) 2019-08-02 2021-02-04 Dextrous Robotics, Inc. Robotic system for picking and placing objects from and into a constrained space
DE102020127508B4 (de) 2019-10-24 2022-09-08 Nvidia Corporation Posenverfolgung von Objekten in der Hand
DE102020128653B4 (de) 2019-11-13 2024-03-14 Nvidia Corporation Greifbestimmung für ein Objekt in Unordnung
US11724401B2 (en) 2019-11-13 2023-08-15 Nvidia Corporation Grasp determination for an object in clutter
US11878415B2 (en) 2019-11-15 2024-01-23 Massachusetts Institute Of Technology Tactile dexterity and control
CN110815118B (zh) * 2019-11-27 2021-12-03 航天科技控股集团股份有限公司 全自动信号片自判断式装配方法
DE102021201921A1 (de) 2021-03-01 2022-09-01 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und verfahren zum steuern eines roboters zum aufnehmen eines objekts
CN114872072B (zh) * 2022-03-30 2023-11-14 浙江清华柔性电子技术研究院 一种柔性夹爪、柔性夹爪的控制系统
US11845184B2 (en) 2022-04-18 2023-12-19 Dextrous Robotics, Inc. System and/or method for grasping objects
DE102022206274A1 (de) 2022-06-22 2023-12-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern eines Roboters zum Manipulieren, insbesondere Aufnehmen, eines Objekts

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325468A (en) * 1990-10-31 1994-06-28 Sanyo Electric Co., Ltd. Operation planning system for robot
JPH06210582A (ja) 1993-01-19 1994-08-02 Toyo Mach & Metal Co Ltd 成形機における周辺ロボットとの通信方式
US8228305B2 (en) * 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
JP3841439B2 (ja) * 1996-07-24 2006-11-01 ファナック株式会社 ロボットのジョグ送り方法
JP3060305B1 (ja) 1999-04-28 2000-07-10 株式会社ユーシン精機 成形品取出しロボットのタッチパネル式画像表示方法
JP3948189B2 (ja) * 2000-03-28 2007-07-25 松下電器産業株式会社 ロボットの教示装置
ITTO20020862A1 (it) 2002-10-04 2004-04-05 Comau Spa Sistema di programmazione per robot o simili apparati
JP2004295159A (ja) * 2003-02-07 2004-10-21 Sony Corp アイコン表示システム、アイコン表示方法、電子機器装置およびコンピュータプログラム
DE102004020099A1 (de) * 2004-04-24 2005-11-17 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Beeinflussen eines mehrachsigen Handhabungsgeräts
WO2005114368A1 (en) * 2004-05-20 2005-12-01 Abb Research Ltd A method and system to retrieve and display technical data for an industrial device
JP5003336B2 (ja) * 2007-07-31 2012-08-15 ソニー株式会社 検出装置、ロボット装置、および入力装置
KR20100066621A (ko) * 2008-12-10 2010-06-18 삼성전자주식회사 로봇 및 그 제어 방법
JP5157946B2 (ja) 2009-02-09 2013-03-06 株式会社デンソーウェーブ タッチパネル式入力装置及びタッチパネル式入力装置の画面表示方法
WO2011036865A1 (ja) * 2009-09-28 2011-03-31 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路
JP2011200943A (ja) * 2010-03-24 2011-10-13 Canon Inc 力制御ロボット
US9104202B2 (en) * 2010-05-11 2015-08-11 Irobot Corporation Remote vehicle missions and systems for supporting remote vehicle missions
DE102010039540C5 (de) 2010-08-19 2020-01-02 Kuka Deutschland Gmbh Handbediengerät zum manuellen Bewegen eines Roboterarms
KR101743926B1 (ko) * 2010-09-20 2017-06-08 삼성전자주식회사 로봇 및 그 제어방법
US8918230B2 (en) * 2011-01-21 2014-12-23 Mitre Corporation Teleoperation of unmanned ground vehicle
DE102012103032B3 (de) 2012-04-05 2013-07-04 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD812122S1 (en) * 2016-01-29 2018-03-06 Softbank Robotics Europe Robot hand
DE102017104092B3 (de) 2017-02-28 2018-05-09 Günther Battenberg Verfahren zur Überprüfung einer Funktion eines Fahrzeuges und/oder zumindest einer Bedieneinrichtung
DE102021212860A1 (de) 2021-11-16 2023-05-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Aufnehmen eines Objekts mittels eines Roboters
DE102021212860B4 (de) 2021-11-16 2024-05-08 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Aufnehmen eines Objekts mittels eines Roboters

Also Published As

Publication number Publication date
US9199376B2 (en) 2015-12-01
DE102013113459B4 (de) 2015-05-13
US20140277742A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
DE102013113459B4 (de) Intuitive greifsteuerung für einen mehrachsigenrobotergreifer
EP2905111B1 (de) Verfahren zum Programmieren eines Industrieroboters und zugehöriger Industrieroboter
EP2987592B1 (de) Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter
DE102014103738B3 (de) Visuelle fehlersuche bei roboteraufgaben
EP2868445B1 (de) Verfahren zum Programmieren von Bewegungsabläufen eines redundanten Industrieroboters und zugehöriger Industrieroboter
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
DE102013203381B4 (de) Verfahren und system zum trainieren eines roboters unter verwendung einer von menschen unterstützten aufgabendemonstration
EP2546711B2 (de) Verfahren zum Programmieren eines Roboters
DE102012218297B4 (de) Verfahren zur dynamischen Optimierung einer Robotersteuerschnittstelle
DE112018002565B4 (de) System und Verfahren zum direkten Anlernen eines Roboters
EP3020516B1 (de) Bestimmen von objektbezogenen greifräumen mittels eines roboters
DE102017202717A1 (de) Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen
DE102010045529A1 (de) Interaktives Robotersteuerungssystem und Verwendungsverfahren
WO2015113757A1 (de) Robotersteuerung
EP3021123B1 (de) Steuerungseinrichtung für pipettierautomaten
DE102017108727A1 (de) Verfahren zur Erstellung einer Datenbank mit Greiferposen, Verfahren zum Steuern eines Roboters, computerlesbares Speichermedium und Handhabungssystem
EP3189385B1 (de) System zum erstellen von steuerungsdatensätzen für roboter
DE102020114583B4 (de) Rechenvorrichtung, Maschinenlernverfahren und Speichermedium
DE102015109646B4 (de) Planen des Greifens eines Roboters in Echtzeit
EP3966731A1 (de) Maschinelles lernen einer objekterkennung mithilfe einer robotergeführten kamera
DE102021120633A1 (de) Verfahren und system zur industrieroboter-bewegungssteuerung
DE102019125117B4 (de) Sichtgeführter Roboterarm und Verfahren zum Betreiben desselben
DE112018002496T5 (de) Greifsystem
EP3990231B1 (de) System zum vornehmen einer eingabe an einem robotermanipulator
DE102019007186A1 (de) Robotersystem und Robotersteuerungsverfahren für kooperatives Arbeiten mit Menschen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final