DE102010023914A1 - Verfahren und Vorrichtung zur Steuerung eines Statthalters - Google Patents

Verfahren und Vorrichtung zur Steuerung eines Statthalters Download PDF

Info

Publication number
DE102010023914A1
DE102010023914A1 DE201010023914 DE102010023914A DE102010023914A1 DE 102010023914 A1 DE102010023914 A1 DE 102010023914A1 DE 201010023914 DE201010023914 DE 201010023914 DE 102010023914 A DE102010023914 A DE 102010023914A DE 102010023914 A1 DE102010023914 A1 DE 102010023914A1
Authority
DE
Germany
Prior art keywords
user
governor
actuators
sensors
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201010023914
Other languages
English (en)
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE201010023914 priority Critical patent/DE102010023914A1/de
Priority to PCT/EP2011/001045 priority patent/WO2011107278A1/de
Publication of DE102010023914A1 publication Critical patent/DE102010023914A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

Die vorliegende Erfindung betrifft die Steuerung eines Statthalters durch einen Nutzer. Ein solcher Statthalter ist insbesondere ein Roboter oder ein virtuelles Wesen. Dabei wird der Statthalter gesteuert durch Signale von Sensoren, die an dem Nutzer angebracht sind oder sich in dessen Umgebung befinden, und Positionen und Bewegungen des Nutzers aufnehmen können. Weiterhin befinden sich an dem Statthalter oder in dessen Umgebung weitere Sensoren, die seine Lage und Bewegungen aufnehmen können. Signale dieser Sensoren dienen dazu, Bewegungsabläufe bei dem Nutzer zu steuern. Die erfindungsgemäße Lösung zeichnet sich dadurch aus, dass die genannten Sensoren Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Körperteil des Nutzers erfassen und Teile des Statthalters entsprechend bewegt werden können. Die Erfindung lässt sich beispielsweise verwenden bei Teleoperationen.

Description

  • Die vorliegende Erfindung betrifft die Steuerung eines Statthalters durch einen Nutzer. Ein entsprechender Nutzer kann ein Mensch oder ein sonstiges Lebewesen sein. Der zu steuernde Statthalter kann eine reale Maschine, eine virtuelle Maschine oder ein sonstiges virtuelles Lebewesen sein. Eine bevorzugte Maschine ist ein realer bzw. virtueller Roboter.
  • Diese Erfindung bezieht sich auf das Gebiet der Bewegungssimulation. Simulatoren sind beispielsweise bekannt als Flugsimulatoren für die Pilotenausbildung oder für den Einsatz in Spielhallen. Dabei werden verschiedene Bewegungen auf einen menschlichen Körper ausgeübt bei gleichzeitiger Anzeige einer simulierten Umgebung. Es ist auch möglich, dass durch geeignete Mittel auch passende Geräusche generiert und dem menschlichen Körper als Schall- und/oder Körperwellen zugeführt werden.
  • Weiterhin bekannt ist das Gebiet der „Virtual Reality”, wobei menschlichen Sinnesorganen bestimmte optische, akustische und/oder haptische Reize oder auch Gerüche simuliert werden, wodurch ein Mensch angeregt wird, bestimmte Handlungen oder Bewegungen auszuführen.
  • Außerdem sind Roboter bekannt, die aufgrund von Steuersignalen unterschiedlichste Bewegungen ausführen können. Je nachdem, wie viele Gelenke mit zugehörigen Achsen und Aktuatoren ein solcher Roboter aufweist, können sie ganz bestimmte Tätigkeiten unterstützen oder erledigen, wie im Rahmen eines Produktionsprozesses, bei der Reinigung eines Haushalts oder dergleichen. Insbesondere dann, wenn die Feinmotorik im Bereich der „Hände” bei Robotern optimiert ist, können sie sich auch entsprechend genau bewegen. Zur Koordination derartiger Roboterbewegungen sind außerdem Sensoren und Kontrolleinheiten bekannt, die diese Bewegungen steuern oder regeln.
  • Weiterhin sind sogenannte Exoskelette bekannt. Sie sind vergleichbar mit Orthesen, die für die Unterstützung einzelner Gliedmaßen, wie für eine Hand oder ein Kniegelenk, geeignet sein können. Ein derartiges Exoskelett ist beispielsweise beschrieben in DE 10 2007 035 401 A1 . Je nach Ähnlichkeit zum menschlichen Körper unterscheidet man anthropomorphe und nicht-anthropomorphe Exoskelette.
  • Exoskelette können Bewegungen des Trägers unterstützen bzw. verstärken, indem am Exoskelett Gelenke durch Servomotoren aktiv angetrieben werden. Diese werden angesteuert aufgrund von Sensorsignalen, die ein Maß sind für Bewegungen, die der Träger durchführt oder durchführen will. Solche Signale können beispielsweise erzeugt werden aufgrund von Elektroden, die auf der Haut angebracht sind und elektrische Impulse von Muskeln empfangen, aufgrund gemessener Abstände, Kräfte und Drehmomente zwischen Nutzer und Exoskelett, und/oder aufgrund von Positionen, Geschwindigkeiten, Beschleunigungen, Kräften und Drehmomenten der Aktuatoren des Exoskeletts.
  • Exoskelette, die eine Art robotischen Anzug darstellen, sind bekannt von der Firma Raytheon Company (www.raytheon.com; letzter Abruf Juni 2010). Diese sind im Wesentlichen ein tragbarer Roboter, die die Kraft, die Ausdauer und die Wendigkeit des Nutzers verstärken. Sie beinhalten eine Kombination von Sensoren, Aktuatoren und Reglern und ermöglichen es dem Nutzer beispielsweise, einen Menschen auf dem Rücken zu tragen oder schwere Lasten mehrere Hundert Mal zu heben ohne zu ermüden. Andererseits ist dieser Anzug wendig genug, dass sein Nutzer Fußball spielen, eine Treppe steigen kann und dergleichen.
  • Aus dem Artikel „Development of Teleoperation Master System with a Kinesthetic Sensation of Presence", Hitoshi Hasunuma et al., ICAT '99 (siehe http://www.vrsj.org/ic-at/papers/99053.pdf; letzter Abruf Juni 2010), ist bekannt, einen Roboter durch die natürliche Verwendung der Arme eines Nutzers und unter bilateraler haptischer Kontrolle zu steuern. Der Nutzer spürt also die Kräfte, die auf den Roboter wirken und kann ihn steuern. Dabei werden nur die Bewegungen der Arme, der Hände und die Haltung des Kopfes des Nutzers auf den Roboter übertragen. Dazu wird für die Arme ein Exoskelett mit 7 Freiheitsgraden (7 dof, dof = degrees of freedom) verwendet und für die Hände ein anderer exoskelletaler Aufbau. Sicht, Gehör und schnelle Bewegungen des Körperschwerpunkts werden auch vom Roboter an den Nutzer übertragen. Ein Kraft-Feedback erfolgt auf Hände und Arme.
  • Die Bewegung des Roboters wird in dem genannten Artikel mittels einer Computermaus gesteuert, durch welche der Nutzer die Bewegungsrichtung des Roboters vorgibt. Die Beingelenke und sein Gleichgewicht werden vom Roboter autonom gesteuert.
  • Es ist somit die Aufgabe der vorliegenden Erfindung, eine Steuerung eines Statthalters, wie einer Maschine oder eines virtuellen Wesens, zu ermöglichen, bei der der Statthalter wesentliche Bewegungen nachvollzieht, die von einem Nutzer vorgegeben werden.
  • Diese Aufgabe wird gelöst durch das Verfahren nach dem Hauptanspruch sowie durch die Vorrichtung nach dem ersten Vorrichtungsanspruch. Durch die Unteransprüche sind vorteilhafte Ausgestaltungen angegeben.
  • Erfindungsgemäß werden Signale von Nutzer-Sensoren erfasst und ausgewertet, deren Signale ein Maß für Positionen, Haltungen und/oder Bewegungen einzelner Körperteile des Nutzers und/oder ein Maß für die auf sie wirkenden Kräfte oder Drehmomente sind. Derartige Sensoren können beispielsweise in direktem oder indirektem Kontakt mit dem Nutzer-Körper sein und als Dehnungsstreifen, elektrische Sensoren für Muskelimpulse oder dergleichen ausgebildet sein. Ferner sind auch Sensoren möglich, die sich in einigem Abstand vom Nutzer befinden und seine Positionen und/oder Bewegungen optisch, akustisch, kapazitiv oder dergleichen erfassen.
  • Die Nutzer-Sensor-Signale dienen zur Ansteuerung von Statthalter-Aktuatoren, die einen Statthalter entsprechend in eine vorgegebene Position bringen oder bewegen. Ein solcher Statthalter kann insbesondere eine reale Maschine, eine virtuelle Maschine oder ein sonstiges virtuelles Lebewesen sein. Eine bevorzugte Maschine ist ein realer bzw. virtueller Roboter. Eine solche Position kann beispielsweise ein Sitzen, Liegen Stehen oder dergleichen sein. Eine Bewegung kann Gehen, Laufen usw. sein. Passende Aktuatoren können Elektromotoren, aber auch hydraulische oder pneumatische Elemente enthalten. Die Nutzer-Sensor-Signale können auch erfasst und aufbereitet und zur Ansteuerung von Nutzer-Aktuatoren genutzt werden. Dieses dient insbesondere bei Verwendung eines Exoskeletts zur Reduktion der vom Nutzer empfundenen Gewichtskräfte und dynamischer Kräfte, welche das Exoskelett auf den Nutzer ausübt.
  • Weiterhin gibt es Statthalter-Sensoren, die Positionen und Bewegungen des Statthalters und/oder die auf ihn von außen oder durch sich selbst wirkenden Kräfte, Drehmomente oder Verformungen erfassen. Diese Sensoren können grundsätzlich ähnlich gestaltet und angeordnet sein wie Nutzer-Sensoren. Deren Signale werden erfasst und derart aufbereitet, dass sie zur Ansteuerung von Nutzer-Aktuatoren dienen, die den Nutzer bzw. einzelne seiner Körperteile entsprechend beeinflussen. Eine solche Beeinflussung kann einerseits die Veranlassung einer Haltung oder Bewegung unter Anwendung von Kräften und Drehmomenten sein. Es ist aber auch möglich, dass auf den Nutzer solche Kräfte, Drehmomente oder Verformungen ausgeübt werden, die vergleichbar sind mit einer haptischen Rückkopplung beim Berühren eines Gegenstandes. Die Statthalter-Sensor-Signale können auch erfasst und aufbereitet und zur Ansteuerung von Statthalter-Aktuatoren genutzt werden. Dies dient insbesondere dazu, den Nutzer das Gewicht und die dynamischen Kräfte des Statthalters nicht spüren zu lassen.
  • Damit der Nutzer den Statthalter auf einfache Weise steuern kann, ist weiterhin vorgesehen, dass die Nutzer-Sensoren die Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente von mindestens einem Körperteil erfassen, wie einem Bein, einem Arm, einer Hand, einem Fuß oder dergleichen, und ein Teil, also Bein, Arm, Hand, Fuß oder dergleichen, des Statthalters entsprechend bewegt wird. Dabei können das steuernde Körperteil und das gesteuerte Teil gleichartig sein, wie Arm-Arm, Bein-Bein und dergleichen. Denkbar ist jedoch auch, dass sie ungleichartig sind, so dass beispielsweise eine Nutzer-Hand ein Statthalter-Bein steuert.
  • Die Verwendung eines Exoskeletts ist insbesondere dann vorteilhaft, wenn darin passende Aktuatoren und/oder Sensoren enthalten sind. Dabei ist es besonders vorteilhaft, wenn der Nutzer und der Statthalter baugleiche Exoskelette tragen bzw. verwenden.
  • Für eine optimale Bewegungssimulation ist es notwendig, dass der Nutzer auch als Ganzes bewegt oder in eine bestimmte Position gebracht werden kann. Eine solche Bewegung kann translatorisch – wie vor/zurück, rechts/links, hoch/runter – oder rotatorisch sein. Dafür ist bei einer Ausgestaltung der Erfindung ein passender Bewegungssimulator vorgesehen. Dieser kann beispielsweise ausgestaltet sein als (a) Kardanische Aufhängung im Verbund mit einer Translationseinheit, (b) Stewart-Bewegungsplattform, (c) Mehrachsenindustrieroboter oder (d) sphärischer Bewegungssimulator, wie er beispielsweise beschrieben ist in dem Artikel „Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace"; Shiu Hang Ip et al., ACRA 2009 (siehe http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf; letzter Abruf Juni 2010), im Verbund mit einer Translationseinheit, oder durch andere bekannte Bewegungssimulatoren.
  • Bei der Ansteuerung des Bewegungssimulators kann ein Motion-Cueing Prozess angewendet werden. Dieser ermöglicht es, die Pose des Roboters auf den Nutzer derart zu übertragen, dass der Arbeitsraum des Bewegungssimulators nicht verlassen, aber dennoch ein realistischer Gesamteindruck für den Nutzer erzeugt wird. Weiterhin kann bei der Ansteuerung des Bewegungssimulators vorgesehen sein, dass die Raumlage und die Position – sowie ggf. deren Ableitungen, wie Geschwindigkeiten und Beschleunigungen – des Statthalters auf den Nutzer abgebildet werden.
  • Wenn der Statthalter als realer Roboter, oder sonstige reale Maschine, gestaltet ist, sind verschiedene Teleoperationen möglich. Dafür kann der Nutzer einen Roboter beispielsweise in einer lebensgefährlichen Umgebung steuern, wie in einem radioaktiven Raum, bei einem Kampfeinsatz oder dergleichen. Aufgabe eines solchen Systems ist also, die Anwendbarkeit von realen Robotern auf Gebiete und Probleme zu erweitern, in denen sie autonom oder semi-autonom, nicht oder nur beschränkt handeln können. Dieses umfasst zum Beispiel die Fortbewegung eines Roboters in Wüstensand, Sümpfen, Wäldern, komplexen Situationen in Gebäuden, Interaktion mit empfindlichen Lebewesen, usw. Komplexe Bewegungen, wie Robben, Nahkampf, Rollen Springen, usw. sind möglich. Ein Großteil der Steuerung, der Wahrnehmung, der Interpretation der Daten und auch der Entscheidungen, werden nun direkt und in Echtzeit durch den Nutzer, wie einen Menschen, erbracht. Da der Roboter seinen Zustand, wie Bewegungen, Kräfte, Drehmomente, usw., über die genannten Sensoren und Aktuatoren an den Nutzer überträgt, kann dieser durch seine Körpersteuerung, die gegebenenfalls durch ein Exoskelett unterstützt wird, den Roboter angemessen steuern. Zusätzliche Informationen kann der Nutzer erhalten aufgrund von optischen, akustischen oder sonstigen Eindrücken, die mittels passender Sensoren im Bereich des Roboters aufgenommen und entsprechend aufbereitet an den Nutzer geleitet werden.
  • Im Bereich der Teleoperation sind verschiedene Techniken bekannt, wie aus dem Springer Handbook of Robotics, Spinger, 2008, um kinematisch gleiche, kinematisch ähnliche und kinematisch unterschiedliche Roboter zu verwenden, um durch einen Nutzer zumindest einen der Roboter (Master) zu verwenden, um den anderen Roboter (Slave) zu steuern. Im Rahmen der vorliegenden Erfindung ist der Master-Roboter dafür bevorzugterweise als Exoskelett ausgebildet. Die Zahl der Freiheitsgrade der Roboter darf im Allgemeinen unterschiedlich sein. Man unterscheidet unilaterale und bilaterale Methoden, wobei bei ersteren vom Master nur Steuersignale an den Slave geschickt werden, und bei letzterem auch Signale vom Slave an den Master. Letzteres ermöglicht die Erzeugung einer Kraftrückkopplung an den Nutzer. Er kann dadurch die Umgebung oder den Bewegungszustand des Slave durch den Master erfahren. Je realistischer der Eindruck des Nutzers von der Umgebung des Slave ist, desto höher ist die „Transparenz” der teleoperativen Verbindung. Dabei spielt auch die Art der Kontrolle und der Kommunikation eine Rolle. Durch bilaterale Teleoperation vermittelt können auch mehrere Nutzer haptisch interagieren oder unter Verwendung mehrerer Master und eines gemeinsamen Slave mit der Umgebung interagieren. Besonders Slave und Slave-Umgebung können simuliert, also virtuell ausgebildet sein.
  • Wichtig ist weiterhin, den Nutzer von der Empfindung der unmittelbaren Eigenschaften des Master und Slave Roboters zu befreien. So sollte er vorzugsweise nicht deren Gewichtskräfte, Trägheitskräfte und Scheinkräfte sowie sonstige aufgrund von Bewegungen und Beschleunigungen verursachte dynamische Kräfte spüren. Ggf. soll auch das Körpergewicht des Nutzers oder von Teilen des Nutzers durch die Roboter getragen werden. Beides, die (teilweise) Isolation des Nutzers von Master- und Slaveeigenschaften, als auch das (teilweise) Abnehmen seines Körpergewichts durch den Roboter, ist durch sogenannte Schwerkraftkompensation (gravity compensation) etabliert.
  • Methoden zur Teleoperation verwenden gemeinhin auch die Skalierung der Distanzen und Kräfte. Dies ist besonders bei nicht identischen Master und Slave Robotern wichtig. Das heißt, dass ein Nutzer am Master auch größere oder kleiner Kräfte und andere Distanzen (auch Winkeldistanzen) erfahren kann als am Slave vorliegen.
  • Methoden der Kraftrückkopplung werden prinzipiell mit verschiedensten Kontrollstrategien realisiert. So unterschiedet man unter anderem Position-Position, Position-Kraft und Kraft-Positions Methoden (Master → Slave Konvention). Position-Kraft Kontrolle bedeutet hier, dass die Ist-Position des Masters an den Slave übertragen wird, welche diese als Sollgröße benutzt um seine Position einzunehmen. Die vom Slave gemessenen Kräfte und/oder Drehmomente werden dann an den Master übertragen, dort als Sollkräfte verwendet und durch Aktuatoren dem Nutzer vermittelt. Die Methoden können ausschließlich mit Aktuatorsensoren (Winkel, Winkelgeschwindigkeit, Drehmoment) oder auch mit zusätzlichen Kraft- und Drehmomentsensoren realisiert werden.
  • Für den Nutzer wird die Erfindung dann einfach anwendbar, wenn er die Realität oder die virtuelle Realität durch den Statthalter gemäß ihrer Gesetze steuert. Das heißt, dass er sich daran gewöhnen muss.
  • Eine Aufgabe des Nutzers wäre dann beispielsweise das Gleichgewicht des Statthalters zu regulieren. Der Statthalter wird aber üblicherweise eine andere Geometrie und Körperdynamik haben als der Nutzer. Wird die Körperdynamik des Statthalters aber durch die Verwendung eines Bewegungssimulators auf den Nutzer übertragen, merkt dieser z. B. anhand einer gleichmäßig beschleunigten Bewegung des Kopfes nach vorne, dass der Statthalter beginnt, umzufallen. Das muss er durch geeignete Maßnahmen ausgleichen, wie Gewichtsverlagerung des Statthalters, unter Verwendung seiner eigenen Beine, welche die Beine des Statthalters steuern, bis die Beschleunigung aufhört. Dabei fühlt der Nutzer mit seinen Füßen den Boden auf der Seite des Statthalters, ohne selbst auf einem zu stehen, vermittelt durch die bilaterale teleoperative Verbindung und die Füße des Nutzer-Exoskeletts. Der Benutzer kann im Exoskelett im Bewegungssimulator niemals selbst umfallen, solange sein Statthalter nicht umfällt.
  • Um die Anpassung zu erleichtern, können auch dynamische und statische Kräfte des Statthalters an den Nutzer weiter gereicht werden. Allgemein kann, um den Eindruck des Nutzers zu optimieren, eine beliebige lineare oder nicht-lineare Transformation zwischen den Parameterräumen des Statthalters und des Nutzers erfolgen. Dies kann genutzt werden, um die Gewöhnung zu beschleunigen oder die Anpassung zu verbessern.
  • Die Regelung des Exoskeletts und des Bewegungssimulators kann durch die Anwendung bewährter Konzepte und Techniken der Kinematik von Maschinen und Robotern sowie der Teleoperation bewirkt werden. Die Simulation von virtuellen Welten nach physikalischem Vorbild hat weite Verbreitung in Computerspielen, der wissenschaftlichen Simulation und dem Film gefunden. Die gleiche Hardware und Software kann zur effizienten Simulation der nötigen Steuersignale und auch zur Bildberechnung verwendet werden.
  • Der Statthalter kann auch als virtuelles Wesen gestaltet sein, wie als virtueller Roboter oder als virtuelles Lebewesen in einem Videospiel oder dergleichen. Dann kann die Erfindung dem Nutzer dazu dienen, bestimmte Bewegungsabläufe in Abhängigkeit von verschiedenen Umgebungen zu üben, die ebenfalls virtuell dargestellt werden können.
  • Eine weitere Ausgestaltung der Erfindung erlaubt es, dass der Nutzer vorgegebene Beeinflussungen erfährt. Dabei kann es sich um Bewegungsabläufe oder um sonstige haptische Eindrücke handeln. Somit kann der Nutzer quasi einen haptischen Film erleben, der mithilfe von geeigneten Ausgabemitteln für optische, akustische und sonstige Signale entsprechend ergänzt werden kann.
  • Bei der Interaktion zwischen dem Nutzer und dem Roboter kann es zu Zeitverzögerungen kommen, die insbesondere durch die Reaktionszeiten von Sensoren und Aktuatoren, Rechengeschwindigkeit von Steuereinheiten sowie Laufzeiten der verschiedenen Signale verursacht werden kann. Diese Zeitverzögerungen können weitestgehend kompensiert werden, wenn zeitliche Ableitungen der von den Sensoren gemessenen Größen ausgewertet werden. Da eine derartige Abschätzung jedoch insbesondere dann zu Problemen führen kann, wenn der Roboter in Kontakt mit einem Gegenstand seiner Umgebung tritt, sind bei einer Weiterbildung der Erfindung Sensoren, wie beispielsweise Ultraschallwandler vorgesehen, die nach Art einer Parkhilfe die Entfernung zu dem Gegenstand schnell erkennen lassen. Durch die Verwendung dieser Daten zur Kontaktvorhersage kann der Eindruck eines Kontaktes und ein realitätsnahes Feedback rechtzeitig beim Nutzer erzeugt werden.
  • Eine weitere Ausgestaltung der Erfindung sieht vor, dass dem Nutzer eine Bewegung in teilweiser oder vollständiger Schwerelosigkeit simuliert wird. Dazu ist die Nutzung der Master-Einheit in einer Flüssigkeit, unter Verwendung geeigneter Atemmittel und ggf. einem (auch flüssigkeitsbefüllten) Anzug, vorgesehen, so dass das Gewicht des Nutzers schon durch den Auftrieb der Flüssigkeit zumindest teilweise aufgehoben wird. Diese Situation ist der Schwerelosigkeit im Weltraum sehr ähnlich, unterscheidet sich jedoch bezüglich der hohen Dämpfung jeder Bewegung durch die Flüssigkeit. Um diese Dämpfung zumindest teilweise zu kompensieren, werden die Aktuatoren, die seinen Körper bzw. einzelne seiner Körperteile bewegen, entsprechend angesteuert um Bewegungen zu unterstützen.
  • Dadurch kann zum Beispiel eine Unter-Wasser-Bewegung mit skalierter Dämpfung oder eine Bewegung im Weltraum ohne Dämpfung oder dergleichen simuliert werden. Die Transparenz der Teleoperation mit realen oder virtuellen Maschinen, realen oder virtuellen Robotern oder virtuellen Lebewesen in Situationen im Weltraum oder unter Wasser oder dergleichen kann so verbessert werden.
  • Eine weitere Ausgestaltung der Erfindung sieht vor, dass der Nutzer im Master (Nutzer-Seite) einen anderen Nutzer im Slave (Statthalter-Seite) beeinflusst. Beide Nutzer sind dabei bevorzugterweise Menschen. Bevorzugt ist hier der Master als Exoskelett mit Rototranslator und der Slave als frei bewegliches Exoskelett ausgelegt. Die Master und Slave sind durch eine bilaterale haptische Verbindung aller oder einiger Körperteile und andere Signale, wie akustisch oder dergleichen, miteinander verbunden. Der Grad der Beeinflussung des Masters durch den Slave und umgekehrt wird durch die Steuereinheit, unter Vorgaben der Master und/oder Slave Seite gesteuert. Hierdurch wird es möglich einen Nutzer eines frei beweglichen Exoskeletts auf der Slave-Seite aus der Ferne zu begleiten und zu unterstützen oder auch die Kontrolle über dessen Exoskelett ganz oder teilweise zu übernehmen. Diese Ausgestaltung ist besonders für zu Trainingszwecken bei sportlichen Übungen oder sonstigen Aufgaben mit hohem körperlichem Anteil interessant.
  • Eine weitere Ausgestaltung der Erfindung sieht vor, dass mehrere Nutzer in jeweils eigenen Nutzereinheiten über eine gemeinsame Steuereinheit mit demselben Statthalter interagieren. Beide Nutzer erfahren so den Zustand des Statthalters und können ihn im Allgemeinen kooperativ, aber zu einem unterschiedlichen Grad beeinflussen. Die Nutzer können im Allgemeinen unterschiedliche Funktionen und Körperteile des Statthalters beeinflussen. Die Nutzer können sich so Aufgaben der Regelung des Statthalters teilen, gemeinsam bewältigen oder aber auch nur beobachtend und beratend teilhaben. Diese Ausgestaltung ist besonders zu Trainingszwecken bei sportlichen Übungen oder sonstigen Aufgaben mit hohem körperlichem Anteil interessant.
  • Weitere Merkmale und Vorteile der Erfindung werden im Folgenden anhand bevorzugter Ausführungsbeispiele erläutert. Dabei zeigen
  • 1 Ein System zur Steuerung eines Roboters mit Hilfe eines Exoskeletts
  • 2 Eine Seitenansicht eines Nutzers im Exoskelett
  • 3 Einen Rototranslator
  • 4 Den Nutzer mit Exoskelett im Rototranslator.
  • 1 zeigt symbolisch ein System, das es einem Nutzer 10 ermöglicht, einen Roboter 110 zu steuern. Der Nutzer 10 ist bevorzugterweise ein Mensch mit einem entsprechenden Körper, der einen Rumpf 12 sowie Arme 14, Beine 16, Füße 17 und einen Kopf 18 umfasst. An dem Körper des Nutzers 10 ist ein Nutzer-Exoskelett 20 angebracht, das schraffiert gezeichnet ist. Dieses befindet sich insbesondere an den Armen 14, am Rumpf 12, am Rücken 13 (siehe 2), an den Beinen 16 und an den Füßen 17, die im bevorzugten Ausführungsbeispiel keinen Boden berühren sondern ausschließlich am Nutzer-Exoskelett 20 Halt finden. Dieses ist dabei derart gestaltet, dass es die genannten Körperteile teilweise oder vollständig derart umschließt, dass es Bewegungen des Körpers erfassen und auch beeinflussen kann. Um den Kopf 18 herum befindet sich ein Helm 22, der in der bevorzugten Ausführung Teil des Exoskeletts 20 ist und in dem eine optische Anzeigeeinheit 24 und eine akustische Wiedergabeeinheit 26 enthalten sind. Die optische Anzeigeeinheit 24 erzeugt für das rechte und das linke Auge unterschiedliche Anzeigen, wie mittels LCD Anzeigen, Projektionseinrichtungen oder dergleichen, und kann somit einen Stereoeffekt ermöglichen. Die akustische Wiedergabeeinheit 26 umfasst bevorzugterweise zwei Kopfhörer bzw. Lautsprecher, die für den Nutzer 10 einen Raumklang ermöglichen können. Weiterhin ist ein Mikrofon 28 vorgesehen, über das der Nutzer 10 akustische Signale, wie insbesondere Sprache, eingeben kann.
  • Der Roboter 110 ist hier als Humanoidroboter ausgebildet, der im Wesentlichen aus einem Roboter-Exoskelett mit entsprechenden Körperteilen, wie Roboter-Rumpf 112, Roboter-Armen 114, Roboter-Beinen 116, Roboter-Füßen 117 und Roboter-Kopf 118 besteht. Das Roboter-Exoskelett ist bei diesem bevorzugten Ausführungsbeispiel weitgehend mechanisch baugleich mit dem Nutzer-Exoskelett 20. Das Roboter-Exoskelett ist verbunden mit einem Nutzraum, der in verschiedene Kammern untergliedert ist, die grob bezeichnet werden können als Rumpf-Nutzraum 130, Arme-Nutzraum 132, Beine-Nutzraum 134 und Kopf-Nutzraum 136. In diesen Nutzräumen können Betriebsstoffe, Aggregate, Werkzeuge sowie Mittel zur Steuerung, zur Energieversorgung und dergleichen untergebracht werden.
  • Der Roboterkopf 118 enthält ein Kamerasystem 122, das bevorzugterweise aus zwei Einzelkameras besteht, die an den Stellen angebracht sind, wo sich üblicherweise die Augen befinden. Damit ist es möglich, Stereobilder aufzunehmen. Im Mundbereich befindet sich ein Lautsprecher 124, der akustische Signale in das Umfeld des Roboters 110 abgeben kann. Im Ohrenbereich befindet sich ein Mikrofonsystem 126, das Geräusche aus der Umgebung aufnehmen kann. Dabei ist es besonders vorteilhaft, wenn das Mikrofonsystem als Kunstkopf-Stereomikrofon ausgebildet ist. Im Nasenbereich befinden sich Geruchssensoren 128, die olfaktorische Signale aus der Umgebung aufnehmen können. Dafür arbeiten diese Sensoren 128 chemisch, optisch und/oder dergleichen.
  • Der Nutzer 10 und der Roboter 110 sind über eine elektronische Steuerung miteinander verbunden, die in 1, 2 nur symbolisch angedeutet ist und insbesondere ein elektronisches Steuergerät 30 enthält. Dieses empfängt unter anderem über eine erste Sensorleitung 32 Signale von Sensoren, die auf Seiten des Nutzers 10 vorhanden sind und in 1 gemeinsam durch die Referenz NS angedeutet sind. Zu diesen Nutzersensoren NS gehören insbesondere das Mikrofon 28 sowie nicht dargestellte Nutzer-Körpersensoren, die Bewegungen, Raumlage, Kräfte und/oder Drehmomente des Nutzers 10 bzw. seiner Körperteile aufnehmen können. Zu diesen Körperteilen gehören neben Rumpf 12, Rücken 13, Armen 14, Beinen 16, Füßen 17 und Kopf 18 auch sonstige Körperteile, wie insbesondere die Hände, die Finger und dergleichen. Diese Nutzer-Körpersensoren können zumindest teilweise in dem Exoskelett 20 enthalten sein. Denkbar ist auch, dass sie zwischen dem Körper und dem Exoskelett 20 oder an anderen Stellen angeordnet sind. Diese Sensoren können auf verschiedenste Weise gestaltet sein, wie als Drucksensoren, Dehnungsmessstreifen, Stromsensoren in Elektromoren oder dergleichen.
  • Das Steuergerät 30 empfängt außerdem über eine zweite Sensorleitung 33 Signale von Sensoren, die auf Seiten des Roboters 110 vorhanden sind. Diese sind in 1 mit RS angedeutet und umfassen insbesondere das Kamerasystem 122, das Mikrofonsystem 126, die Geruchssensoren 128 sowie nicht dargestellte Roboter-Körpersensoren, die Bewegungen des Roboters 110 aufnehmen und ähnlich angeordnet und gestaltet sein können, wie die oben beschriebenen Nutzer-Körpersensoren.
  • Das elektronische Steuergerät 30 gibt verschiedene Signale aus. Dazu gehören zunächst alle Signale, die auf Seiten des Nutzers 10 Nutzer-Ausgabeeinheiten ND über eine erste Wiedergabeleitung 34 ansteuern, wie die optische Anzeigeeinheit 24 oder die akustische Wiedergabeeinheit 26. Außerdem werden auf Seiten des Nutzers 10 über eine Steuerleitung 36 erste Signale abgegeben, die hier nicht dargestellte Nutzer-Aktuatoren NA ansteuern können. Diese können zumindest teilweise Teil des Exoskeletts 20 sein und können derart gestaltet sein, dass sie Druck und Verformungen an verschiedenen Körperteilen des Nutzers ausüben können. Sie können auch derart angeordnet und gestaltet sein, dass Bewegungen von Nutzer-Körperteilen veranlasst oder gehemmt werden können. Dafür sind zum Beispiel Stellmotoren, hydraulische oder pneumatische Elemente oder dergleichen denkbar. Die Verwendung von hydraulischen und pneumatischen Elementen bietet die Möglichkeit, die verwendeten Flüssigkeiten bzw. Gase zu temperieren und dadurch dem Nutzer, ggf. auch über andere Mittel, zusätzlich eine Temperatur-Rückmeldung zu geben. Da bei der bevorzugten Ausführung auch der Helm 22 Teil des Exoskeletts 20 ist, kann auch die Haltung des Kopfes 18 erfasst und auch beeinflusst werden.
  • Auch auf Seiten des Roboters 110 gibt das elektronische Steuergerät 30 verschiedene Signale aus. Dazu gehören die über eine zweite Wiedergabeleitung 35 abgegebenen Signale für die Roboter-Ausgabeeinheiten RD, wozu insbesondere das Lautsprechersystem 124 gehört. Auch weitere optische und/oder akustische Ausgabeeinheiten sind denkbar. Außerdem werden über eine zweite Steuerleitung 37 Steuersignale für Roboter-Aktuatoren RA abgegeben. Dazu gehören insbesondere Stellelemente innerhalb des Roboters 110, die Bewegungen von Roboter-Körperteilen veranlassen oder hemmen können.
  • 2 zeigt symbolisch eine Seitenansicht des Nutzers 10 sowie weitere Elemente des Systems. Dabei ist gut zu erkennen, dass bei der bevorzugten Ausführung die Nutzer-Körperteile insbesondere hinten und an den Außenseiten von dem Exoskelett 20 umgeben sind.
  • Das elektronische Steuergerät 30 empfängt verschiedene Sensor-Signale von dem Exoskelett 20 und gibt auch verschiedene Stellsignale an zugehörige Aktuatoren ab, so dass der Nutzer-Körper entsprechend beeinflusst werden kann. An Stellen, an denen der Körper besonders sensibel reagiert, wie an Händen 10a, am Ellenbogen 10b oder an den Kniegelenken 10c, sind die Sensoren und Aktuatoren des Exoskeletts 20 entsprechend ausgelegt.
  • Außerdem sind an das Steuergerät 30 eine Nutzer-Kamera 38 und ein Nutzer-Bewegungssensor 39 angeschlossen. Diese nehmen optische und/oder akustische Signale aus der Umgebung des Nutzers 10 auf. In der bevorzugten Ausführungsform ist die Kamera 38 derart angeordnet und ausgebildet, dass sie die Mimik des Nutzers erfassen kann.
  • Das Ausführungsbeispiel dient dazu, dass ein wesentlicher Teil des Körpers von Nutzer 10 zur Steuerung des Roboters 110 verwendet werden kann, indem direkt oder indirekt am Nutzer-Körper Sensoren angeordnet sind, die möglichst viele Bewegungen oder sonstige Reaktionen erfassen können. Ergänzt wird das durch weitere Sensoren, wie Kamera 38 und Bewegungssensor 39, die im Bereich des Nutzers 10 angeordnet sind und ebenfalls dessen Bewegungen erfassen. Zusätzlich können weitere Signale aus dem Bereich des Nutzers 10 erfasst werden, wie beispielsweise mittels des Mikrofons 28, die in entsprechender Weise auf Seiten des Roboters 110 wiedergegeben werden können.
  • Das Ausführungsbeispiel dient jedoch nicht nur zur Steuerung des Roboters 110 durch den Nutzer 10, sondern umgekehrt sollen auch Signale auf Seiten des Roboters 110 dem Nutzer in geeigneter Weise zugeführt werden. Dazu gehören insbesondere die Einwirkungen auf den Nutzer-Körper durch Aktuatoren, die Teil des Exoskeletts 20 sein können. Ergänzt wird das durch akustische, optische, olfaktorische und/oder gustatorische Signale, die durch passende Sensoren im Bereich des Roboters 110 detektiert und über entsprechende Ausgabemittel dem Nutzer 10 zugeführt werden.
  • Die in 1 und 2 beschriebenen Mittel können jedoch dem Nutzer 10 keinen optimalen Eindruck über Lage, Geschwindigkeit und Beschleunigung des Roboters 110 vermitteln. Dafür ist zusätzlich ein Bewegungssimulator notwendig.
  • 3 zeigt ein bevorzugtes Beispiel für einen geeigneten Bewegungssimulator. Dabei handelt es sich um einen Rototranslator 40, der einen ersten Teil 40a und einen zweiten Teil 40b enthält. Der erste Teil 40a ist eine Translationseinheit, die drei Freiheitsgrade ermöglicht und zwar aufgrund ihres kartesischen Aufbaus entlang der Achsen, x, y und z. Der zweite Teil 40b ist eine Rotationseinheit, die ebenfalls drei Freiheitsgrade ermöglicht und hier als kardanische Aufhängung gestaltet ist. Die bevorzugte Ausführung weist zur Vermeidung des so genannten gimbal-lock Effektes 4 Achsen 42, 44, 46 und 48 auf, an denen drehbare Elemente 43, 45, 47 und 49 befestigt sind. In der bevorzugten Ausführung haben die Elemente 43, 45, 47 eine ring-ähnliche Form und das vierte Element 49 ist nahezu halb-ringförmig. An dessen Unterseite befindet sich ein Befestigungspunkt 50, an dem der Nutzer 10 angeordnet werden kann. Das kann beispielsweise dadurch geschehen, dass das Exoskelett 20 oder eine Nutzerkapsel an dem Punkt 50 befestigt wird, oder auf ähnliche Weise.
  • 4 zeigt eine bevorzugte Ausführung einer solchen Befestigung. Dabei ist das Exoskelett 20, mit dem der Nutzer 10 fest verbunden ist, an dessen Rückenseite über ein Befestigungselement 52 und einen Befestigungsarm 54 an dem Punkt 50 befestigt. Das Befestigungselement 52 beinhaltet bevorzugterweise eine Hochfrequenz-Rotations-Translationseinheit, die bei entsprechender Ansteuerung durch das Steuergerät 30 geeignet ist, den Nutzer 10 schnell zu bewegen, wodurch beispielsweise ein Schütteln wie bei einer Autofahrt auf holpriger Strecke simuliert werden kann.
  • Der Rototranslator 40 wird ebenfalls durch das Steuergerät 30 angesteuert. Dafür ist eine Vielzahl von hier nicht dargestellten Aktuatoren vorhanden, die Bewegungen in alle möglichen Freiheitsgrade sowohl bei der Translationseinheit 40a als auch bei der Rotationseinheit 40b ermöglichen.
  • Durch eine eins-zu-eins Übertragung der Posen des Roboters 110 auf den Nutzer 10 wird es ermöglicht, dass alle Körperbeschleunigungen des Roboters 110 für den Nutzer 10 erfahrbar werden. Dazu gehören auch lang anhaltende Körperbeschleunigungen, wie beim Laufen einer Kurve. Die eins-zu-eins Übertragung der Pose, besonders der translatorischen Beschleunigungen auf den Körperschwerpunkt des Roboters 110, findet ihre Grenze im verfügbaren Arbeitsraum des Rototranslators 40. Sollte beispielsweise der translatorische Arbeitsraum des Roboters 110 den translatorischen Arbeitsraum der Translationseinheit 40a übersteigen, kann die Pose nicht mehr eins-zu-eins übertragen werden. Dann werden die Aktuatoren des Rototranslators 40 durch das Steuergerät 30 derart angesteuert, dass ein Motion-Cueing Prozess realisiert wird. Dieser ermöglicht es, die Pose des Roboters 110 auf den Nutzer 10 derart zu übertragen, dass der Arbeitsraum des Rototranslators 40 nicht verlassen, aber dennoch ein realistischer Gesamteindruck für den Nutzer 10 erzeugt wird.
  • Eine zweite Anzeigeeinheit 56 ist im Sichtfeld des Nutzers 10 angeordnet, die zusätzlich oder stattdessen zu der ersten Anzeigeeinheit 24 verwendet werden kann. Die Anzeigeeinheit 56 kann insbesondere in solchen Fällen die erste Anzeigeeinheit 24 ersetzen, in denen mittels der Kamera 38 (2) die Mimik des Nutzers 10 möglichst vollständig erfasst werden soll. Die Anzeigeeinheit 56 kann gekrümmt, sphärisch oder flach sein und derart gestaltet sein, dass eine Wiedergabe von 2- und/oder 3-dimensionalen Bildern möglich ist. Im Bereich des Nutzers 10 können außerdem hier nicht dargestellte Lautsprecher für Raumklang vorgesehen sein.
  • Durch die Befestigung des Nutzers 10 an dem Befestigungspunkt 50 können mittels des Rototranslators 40 verschiedene Bewegungen simuliert werden, die der Roboter 110 durchführt bzw. die ihm von seiner Umgebung zugefügt werden.
  • Bei dem bevorzugten Ausführungsbeispiel befinden sich der Nutzer 10 und der Roboter 110 in örtlicher Distanz voneinander, wie in verschiedenen Räumen, verschiedenen Gebäuden oder dergleichen. Dabei ist es besonders vorteilhaft, wenn zumindest einzelne der Leitungen 3237 drahtlos gestaltet sind. Dafür sind unterschiedliche Technologien geeignet, wie eine Übermittlung über elektromagnetische Wellen, optische, akustische Signale oder dergleichen. Außerdem können die Leitungen 3237, die in den Figuren als einfache Leitungen dargestellt sind, in vielfacher Weise ausgeführt sein. Wichtig ist, dass Signale von Sensoren sowie Signale an Aktuatoren und Anzeigeeinheiten in geeigneter Weise über passende Kanäle übertragen werden. Es ist ebenfalls möglich, dass das in den Figuren als zentrale Einheit dargestellte Steuergerät 30 dezentral ausgeführt ist, so dass beispielsweise Teile der Steuerung direkt am Master, am Slave, an einzelnen Gelenken und/oder irgendwo sonst stattfinden können. Dafür können Leitungen innerhalb des Steuerungssystems drahtlos und/oder drahtgebunden sein.
  • Zur möglichst genauen Steuerung des Roboters 110 ist eine Vielzahl von Körpersensoren am Nutzer 10 sowie in seiner Umgebung vorgesehen. Diese Sensoren können auf verschiedene Weise gestaltet sein. So sind Messungen von Winkeln und/oder Drehmomenten zwischen einzelnen Körperteilen, deren Positionen sowie Messungen von optischen, akustischen und/oder bio-elektrischen (Elektromyographie) Signalen denkbar. Dabei ist es besonders vorteilhaft, wenn nicht nur Istwerte der Messungen ermittelt werden, sondern auch erste und zweite Ableitungen davon, um so eine Entwicklung entsprechender Werte für die nahe Zukunft abschätzen zu können. Die Körpersensoren können an verschiedenen Stellen angeordnet sein, wie direkt am Nutzer 10, innerhalb des Exoskeletts 20 und/oder dazwischen.
  • Um den Körper des Nutzers 10 umfangreich beeinflussen zu können, ist dort eine Vielzahl von Aktuatoren vorgesehen. Diese können auf Stellgrößen einwirken wie Winkel, Positionen, Kräfte oder Drehmomente sowie deren zeitliche Ableitungen. Dabei ist es besonders vorteilhaft, wenn die Ansteuerung zumindest von einzelnen der Aktuatoren mittels eines Regelungsprozesses erfolgt. Dafür werden entsprechende Sensorsignale der Leitung 32 als Istwert im Steuergerät 30 ausgewertet, woraufhin die Ansteuerung der zugehörigen Aktuatoren einem vorgegebenen Sollwert angepasst wird.
  • Auch die Ansteuerung des Rototranslators 40 kann anhand eines Regelungsverfahrens erfolgen, indem Istsignale entsprechender Sensoren in dem Steuergerät 30 empfangen und passend ausgewertet werden, wobei eine gewünschte Raumlage und Position eingestellt werden kann. Auch hierbei ist es vorteilhaft, wenn zusätzlich zeitliche Ableitungen solcher Werte bestimmt werden.
  • Auch an dem Körper des Roboters 110 und in dessen Umgebung ist eine Vielzahl von Sensoren angeordnet. Dies kann in ähnlicher Weise erfolgen wie bei dem Nutzer 10. Diese Sensoren beschreiben auch die aktuelle Raumlage und Position sowie gegebenenfalls deren zeitliche Ableitungen.
  • Das Steuergerät 30 steuert die Aktuatoren und Anzeigeeinheiten aufgrund der empfangenen Sensorsignale derart, dass eine bilaterale haptische Teleoperabilität ermöglicht wird. Außerdem können die Aktuatoren auf der Nutzerseite und des Roboters derart angesteuert werden, dass zusätzlich auch eine Schwerkraftkompensation und/oder Kompensation von dynamischen Kräften stattfindet.
  • Bei der Interaktion zwischen dem Nutzer 10 und dem Roboter 110 kann es zu Zeitverzögerungen kommen, die insbesondere durch die Reaktionszeiten von Sensoren und Aktuatoren, Rechengeschwindigkeit des Steuergerätes 30 sowie Laufzeiten der verschiedenen Signale verursacht werden kann. Diese Zeitverzögerungen können weitestgehend kompensiert werden, wenn zeitliche Ableitungen der von den Sensoren gemessenen Größen ausgewertet und daraus Werte in der Zukunft abgeschätzt werden. Da eine derartige Abschätzung jedoch insbesondere dann zu Problemen führen kann, wenn der Roboter 110 in Kontakt mit einem Gegenstand seiner Umgebung tritt, sind bei einer Weiterbildung des Ausführungsbeispiels Ultraschallwandler vorgesehen, die nach Arteiner Parkhilfe die Entfernung zu dem Gegenstand schnell erkennen lassen. Durch die Verwendung dieser Daten zur Kontaktvorhersage kann der Eindruck eines Kontaktes und ein realitätsnahes Feedback rechtzeitig beim Nutzer 10 erzeugt werden.
  • Die beschriebenen Ausführungsbeispiele erlauben also, dass der Nutzer 10 und der Roboter 110 die gleichen Haltungen einnehmen, wie Stehen, Sitzen, Liegen, Kopfstand, sowie gemeinsame Bewegungen durchführen, wie Gehen, Laufen, Springen, Salto, usw. Außerdem erhält der Nutzer 10 ein haptisches Feedback. Denn wenn er den Roboter 110 bewegt und dieser mit irgendeinem seiner Körperteile in Kontakt mit seiner Umgebung kommt, wird das von den entsprechenden Sensoren aufgenommen und über das Steuergerät 30 an den Nutzer 10 weiter gegeben.
  • Die bevorzugte Ausführung hat außerdem den Vorteil, eine völlige, unbegrenzte Beweglichkeit in sechs Freiheitsgraden (6-dof Beweglichkeit) des Statthalters zu erreichen und dem Nutzer jederzeit komplettes realitätsnahes Kraft-Feedback zu vermitteln. Dadurch wird es dem Nutzer möglich, komplexe reale oder virtuelle Welten in ihrer Körperlichkeit und Beschaffenheit besser zu erfahren als bisher. Dabei sind verschiedene Teleoperationen möglich. Dafür kann der Nutzer 10 den Roboter 110 beispielsweise in einer lebensgefährlichen Umgebung steuern, wie in einem radioaktiven Raum, bei einem Kampfeinsatz oder dergleichen. Aufgabe eines solchen Systems ist also, die Anwendbarkeit von realen Robotern auf Gebiete und Probleme zu erweitern, in denen sie autonom oder semi-autonom nicht handeln können. Dieses umfasst zum Beispiel die Fortbewegung des Roboters 110 in Wüstensand, Sümpfen, Wäldern, komplexen Situationen in Gebäuden, Interaktion mit empfindlichen Lebewesen, usw. Komplexe Bewegungen, wie Robben, Nahkampf, Rollen Springen, usw. sind möglich. Ein Großteil der Steuerung, der Wahrnehmung, der Interpretation der Daten und auch der Entscheidungen, werden nun direkt und in Echtzeit durch den Nutzer 10, wie einen Menschen, erbracht.
  • Die beschriebenen Ausführungsbeispiele können in vielfacher Weise abgewandelt werden. Dabei sind insbesondere denkbar:
    • – Das Nutzer-Exoskelett 20 und das Roboter-Exoskelett können verschieden oder baugleich sein. Insbesondere kann der Slave auch ein humanoider oder ein andersartiger Roboter allgemeiner Körperform sein.
    • – In dem Steuergerät 30 ist eine Speichereinheit vorhanden, die vorgegebene – beispielsweise berechnet, ausgehend von vorhandenen 3-dimensionalen Bewegungssequenzen – oder bereits vom Nutzer 10 oder von einem anderen Nutzer durchgeführte Positionen und/oder Bewegungsabläufe und/oder wirkende Kräfte und/oder andere wiederzugebende Sinneseindrücke speichert. Diese können dann nach Belieben umgesetzt werden. Dadurch kann der Nutzer 10 seine Körperkoordination trainieren oder einen haptischen Film erleben.
    • – Die erfindungsgemäßen Ausführungsbeispiele können auch dazu verwendet werden, dass mehrere Nutzer über eine größere Distanz miteinander kommunizieren und interagieren können. Bei einer solchen Anwendung befindet sich im Bereich des Roboters 110 ein oder mehrere weitere Nutzer, von denen jeder ebenfalls ein Exoskelett oder dergleichen trägt und dadurch einen zweiten Roboter steuert, der sich im Bereich des Nutzers 10 befindet. Dadurch können beispielsweise Therapiemaßnahmen, Turnübungen oder dergleichen trainiert werden. Auch können die gesteuerten Roboter, unabhängig vom Aufenthaltsort und Anzahl der Nutzer, gemeinsam im gleichen Raum interagieren und die Nutzer so kommunizieren. Alternativ benutzen beide oder mehrere Nutzer jeweils ein Exoskelett oder dergleichen und steuern jeweils einen Statthalter in einer gemeinsamen virtuellen Realität. Dies erlaubt die haptische, akustische, visuelle, etc. Kommunikation.
    • – Anstelle des Rototranslators 40 können andere Mittel verwendet werden, die die notwendigen Translations- und Rotationsfreiheitsgrade abdecken. Dazu gehören insbesondere die Stewart-Bewegungsplattform, ein Mehrachsenindustrieroboter oder dergleichen. Weiterhin sind kugel-ähnliche Räume bekannt die reibungsarm gelagert und von außen gedreht werden können, wie aus US 6,629,896 B2 und US2,344,454 sowie dem Artikel „Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace", Shiu Hang Ip et al., ACRA 2009 (siehe http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf; letzter Abruf Juni 2010). In einem solchen kugel-ähnlichen Raum, der drei Rotationsfreiheitsgrade hat, kann das Exoskelett 20 angebracht werden. Das Ganze kann auf einer Translationseinheit montiert werden, um insgesamt sechs Freiheitsgrade zu erhalten.
    • – Für einfache und preiswerte Systeme ist es ebenfalls möglich, die Anzahl der Freiheitsgrade zu reduzieren oder ihren Parameterraum einzuschränken. So kann ein kipp- und schwenkbarer Balken, montiert am Boden oder an der Decke eines Raumes, an dem das Exoskelett beweglich befestigt ist, ausreichen, um viele Bewegungen realitätsnah darzustellen. Bei einer kardanischen Aufhängung reichen auch zwei oder drei Achsen aus, sofern entsprechende Einschränkungen in Kauf genommen werden.
    • – Der körperlich vorhandene Roboter 110 in einer realen Umgebung kann ersetzt werden durch einen sonstigen Statthalter, wie ein virtuelles Modell eines Roboters oder eines Lebewesens in einer virtuellen Umgebung. Dabei entfallen also alle zugehörigen Roboter-Sensoren und Roboter-Aktuatoren; diese werden ersetzt durch eine entsprechende Simulation.
  • Bezugszeichenliste
  • 10
    Nutzer
    10a
    Nutzer-Hände
    10b
    Nutzer-Ellenbogen
    10c
    Nutzer-Kniegelenke
    12
    Nutzer-Rumpf
    13
    Nutzer-Rücken
    14
    Nutzer-Arme
    16
    Nutzer-Beine
    17
    Nutzer-Füße
    18
    Nutzer-Kopf
    20
    Nutzer-Exoskelett
    22
    Helm
    24
    optische Anzeigeeinheit
    26
    akustische Wiedergabeeinheit
    28
    Mikrofon
    30
    elektronisches Steuergerät
    32
    erste Sensorleitung
    33
    zweite Sensorleitung
    34
    erste Wiedergabeleitung
    35
    zweite Wiedergabeleitung
    36
    erste Steuerleitung
    37
    zweite Steuerleitung
    38
    Nutzer-Kamera
    39
    Nutzer-Bewegungssensor
    40
    Rototranslator
    40a
    Translationseinheit
    40b
    Rotationseinheit
    42, 44, 46, 48
    Achsen der Rotationseinheit
    43, 45, 47, 49
    Elemente der Rotationseinheit
    50
    Befestigungspunkt
    52
    Befestigungselement
    54
    Befestigungsarm
    56
    zweite Anzeigeeinheit
    110
    Roboter
    112
    Roboter-Rumpf
    114
    Roboter-Arme
    116
    Roboter-Beine
    117
    Roboter-Füße
    118
    Roboter-Kopf
    122
    Roboter-Kamerasystem
    124
    Roboter-Lautsprechersystem
    126
    Roboter-Mikrofonsystem
    128
    Roboter-Geruchssensoren
    130
    Rumpf-Nutzraum
    132
    Arme-Nutzraum
    134
    Beine-Nutzraum
    136
    Kopf-Nutzraum
    NS
    Nutzer-Sensoren
    ND
    Nutzer-Ausgabeeinheiten
    NA
    Nutzer-Aktuatoren
    RS
    Roboter-Sensoren
    RD
    Roboter-Ausgabeeinheiten
    RA
    Roboter-Aktuatoren
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007035401 A1 [0005]
    • US 6629896 B2 [0068]
    • US 2344454 [0068]
  • Zitierte Nicht-Patentliteratur
    • „Development of Teleoperation Master System with a Kinesthetic Sensation of Presence”, Hitoshi Hasunuma et al., ICAT '99 (siehe http://www.vrsj.org/ic-at/papers/99053.pdf; letzter Abruf Juni 2010) [0008]
    • „Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace”; Shiu Hang Ip et al., ACRA 2009 (siehe http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf; letzter Abruf Juni 2010) [0017]
    • Springer Handbook of Robotics, Spinger, 2008 [0020]
    • „Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace”, Shiu Hang Ip et al., ACRA 2009 (siehe http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf; letzter Abruf Juni 2010) [0068]

Claims (33)

  1. Verfahren zur Steuerung eines Statthalters (110) durch Bewegungen des Körpers eines Nutzers (10) wobei erste Signale von Nutzer-Sensoren (NS) erfasst und ausgewertet werden und aufgrund der ersten Signale Statthalter-Aktuatoren (RA) bei dem Statthalter (110) derart angesteuert werden, dass zumindest einzelne seiner Teile (112, 114, 116, 118) von diesem Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente wie der Körper des Nutzers (10) durchführen können, wobei außerdem zweite Signale von Statthalter-Sensoren (RS) erfasst und ausgewertet werden und aufgrund dieser zweiten Signale Nutzer-Aktuatoren (NA) derart angesteuert werden, dass zumindest einzelne Körperteile des Nutzers (10) beeinflusst werden, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Körperteil (1218) des Nutzers (10) erfassen und Teile (112118) des Statthalters (110) entsprechend bewegt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Bein (16) des Nutzers (10) erfassen können und dass Teile (114, 116) des Statthalters (110) entsprechend bewegt werden.
  3. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Arm (14) und einem Bein (16) des Nutzers (10) erfassen können und dass Teile (114, 116) des Statthalters (110) entsprechend bewegt werden.
  4. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass zumindest einzelne der Körperteile des Nutzers (10) und/oder des Statthalters (110) mit einem Exoskelett (20) verbunden sind und dass dieses mindestens einen der Aktuatoren (NA; RA) und/oder mindestens einen der Sensoren (NS; RS) enthält.
  5. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Signale der Nutzer-Sensoren (NS) erfasst und ausgewertet werden und zur Ansteuerung der Nutzer-Aktuatoren (NA) genutzt werden.
  6. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Signale der Statthalter-Sensoren (RS) erfasst und ausgewertet werden und zur Ansteuerung der Statthalter-Aktuatoren (RA) genutzt werden.
  7. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Aktuatoren (NA) Mittel zur Ansteuerung eines Bewegungssimulators (40) umfassen, die derart gestaltet und angeordnet sind, dass der Nutzer (10) bei Vorliegen entsprechender Steuersignale als Ganzes bewegt wird.
  8. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass der Statthalter (110) als reale Maschine, als virtuelle Maschine, als realer Roboter, als virtueller Roboter und/oder als virtuelles Modell eines Lebewesens gestaltet sein kann, wobei die zugehörigen Statthalter-Sensoren (RS) und Statthalter-Aktuatoren (RA) entsprechend gestaltet sind.
  9. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Aktuatoren (NA) und/oder Nutzer-Ausgabeeinheiten (ND) durch abgespeicherte Signale angesteuert werden, die vorgegebene Beeinflussungen von Körperteilen bzw. von Sinneseindrücken des Nutzers (10) darstellen.
  10. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Bewegungen des Nutzers (10) und/oder des Statthalters (110) gesteuert werden in Abhängigkeit von Signalen von Sensormitteln, die den Abstand zwischen dem Nutzer (10) und/oder dem Statthalter (110) und Gegenständen der jeweiligen Umgebung ermitteln.
  11. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Aktuatoren (NA) derart angesteuert werden, dass der Nutzer (10), wenn er sich in einer Flüssigkeit befindet, derart beeinflusst wird, dass ihm eine Bewegung wie bei teilweiser oder vollständiger Schwerelosigkeit simuliert wird.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Dämpfung der Bewegung des Nutzers (10) in der Nutzer-Einheit in der Flüssigkeit skaliert wird.
  13. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass sowohl auf der Nutzer-Seite als auch auf der Statthalter-Seite ein Nutzer Einfluss auf eine bilaterale Interaktion nehmen kann.
  14. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass zwei oder mehr Nutzer-Einheiten und/oder zwei oder mehr Statthalter (110) beeinflusst werden.
  15. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass mindestens zwei Nutzer (10) vorhanden sind, die gemeinsam einen Statthalter (110) mit jeweils vorgegebenen Anteilen steuern.
  16. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass zwei oder mehr Nutzer (10) vorhanden sind, die unterschiedliche Statthalter (110) steuern können.
  17. Vorrichtung zur Steuerung eines Statthalters (110) durch Bewegungen des Körpers eines Nutzers (10) wobei Nutzer-Sensoren (NS) vorhanden sind, deren Signale von einer Steuereinheit (30) erfasst und ausgewertet werden und die aufgrund dieser Nutzer-Sensor-Signale Statthalter-Aktuatoren (RA) bei dem Statthalter (110) derart ansteuert, dass zumindest einzelne seiner Teile (112, 114, 116, 118) von diesem Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente wie der Körper des Nutzers (10) durchführen können, wobei außerdem Statthalter-Sensoren (RS) vorhanden sind, deren Signale von der Steuereinheit (30) erfasst und ausgewertet werden und die aufgrund dieser Statthalter-Sensor-Signale Nutzer-Aktuatoren (NA) derart ansteuert, dass zumindest einzelne Körperteile des Nutzers (10) beeinflusst werden, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Körperteil (1218) des Nutzers (10) erfassen und Teile (112118) des Statthalters (110) durch die Statthalter-Aktuatoren (RA) entsprechend bewegt werden.
  18. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) derart ausgebildet und angeordnet sind, dass sie Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Bein (16) des Nutzers (10) erfassen können und dass die Steuereinheit (30) die Statthalter-Aktuatoren (RA) derart ansteuert, dass Teile (114, 116) des Statthalters (110) entsprechend bewegt werden.
  19. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) derart ausgebildet und angeordnet sind, dass sie Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Arm (14) und einem Bein (16) des Nutzers (10) erfassen können und dass die Steuereinheit (30) die Statthalter-Aktuatoren (RA) derart ansteuert, dass Teile (114, 116) des Statthalters (110) entsprechend bewegt werden.
  20. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass ein Exoskelett (12) vorhanden ist, mit dem zumindest einzelne der Körperteile des Nutzers (10) und/oder des Statthalters (110) verbunden sind und dass dieses mindestens einen der Aktuatoren (NA, RA) und/oder mindestens einen der Sensoren (NS, RS) enthält.
  21. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Steuereinheit (30) Signale der Nutzer-Sensoren (NS) erfasst und auswertet und zur Ansteuerung der Nutzer-Aktuatoren (NA) nutzt.
  22. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Steuereinheit (30) Signale der Statthalter-Sensoren (RS) erfasst und auswertet und zur Ansteuerung der Statthalter-Aktuatoren (RA) nutzt.
  23. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Nutzer-Aktuatoren (NA) Mittel zur Ansteuerung eines Bewegungssimulators (40) umfassen, die derart gestaltet und angeordnet sind, dass der Nutzer (10) bei Vorliegen entsprechender Steuersignale als Ganzes bewegt wird.
  24. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass der Statthalter (110) als reale Maschine, als virtuelle Maschine, als realer Roboter, als virtueller Roboter und/oder als virtuelles Modell eines Lebewesens gestaltet sein kann, wobei die zugehörigen Statthalter-Sensoren (RS) und Statthalter-Aktuatoren (RA) entsprechend gestaltet sind.
  25. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Steuereinheit (30) einen Speicher enthält, in den Signale abgespeichert sein können, aufgrund derer die Nutzer-Aktuatoren (NA) und/oder Nutzer-Ausgabeeinheiten (ND) derart angesteuert werden können, dass sie vorgegebene Beeinflussungen von Körperteilen bzw. von Sinneseindrücken des Nutzers (10) bewirken.
  26. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Steuereinheit (30) Bewegungen des Nutzers (10) und/oder des Statthalters (110) in Abhängigkeit von Signalen von Sensormitteln steuert, die den Abstand zwischen dem Nutzer (10) und/oder dem Statthalter (110) und Gegenständen der jeweiligen Umgebung ermitteln.
  27. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Steuereinheit (30) die Nutzer-Aktuatoren (NA) derart ansteuert, dass der Nutzer (10), wenn er sich in einer Flüssigkeit befindet, derart beeinflusst wird, dass ihm eine Bewegung wie bei teilweiser oder vollständiger Schwerelosigkeit simuliert wird.
  28. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet, dass die Steuereinheit (30) die Nutzer-Aktuatoren (NA) derart ansteuert, dass die Dämpfung der Bewegung des Nutzers (10) in der Nutzer-Einheit skaliert wird.
  29. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass sowohl auf der Nutzer-Seite als auch auf der Statthalter-Seite Sensoren (NS, RS), Aktuatoren (NA, RA) und/oder Ausgabeeinheiten (ND, RD) derart gestaltet sind, dass ein Nutzer Einfluss auf eine bilaterale Interaktion nehmen kann.
  30. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass zwei oder mehr Nutzer-Einheiten und/oder zwei oder mehr Statthalter (110) vorhanden sind.
  31. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass Mittel vorhanden sind, die es ermöglichen, dass mindestens zwei Nutzer (10) gemeinsam einen Statthalter (110) mit jeweils vorgegebenen Anteilen steuern können.
  32. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass die Steuereinheit (30) derart gestaltet ist, dass zwei oder mehr Nutzer (10) unterschiedliche Statthalter (110) steuern können.
  33. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch gekennzeichnet, dass der Statthalter (110) einen Nutzraum (130, 132, 134, 136) umfasst, der geeignet ist, Mittel zur Steuerung, Mittel zur Energieversorgung, Betriebsstoffe, Aggregate, Werkzeuge und/oder dergleichen aufzunehmen.
DE201010023914 2010-03-02 2010-06-16 Verfahren und Vorrichtung zur Steuerung eines Statthalters Withdrawn DE102010023914A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE201010023914 DE102010023914A1 (de) 2010-03-02 2010-06-16 Verfahren und Vorrichtung zur Steuerung eines Statthalters
PCT/EP2011/001045 WO2011107278A1 (de) 2010-03-02 2011-03-02 Verfahren und vorrichtung zur steuerung eines roboters

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102010010010 2010-03-02
DE102010010010.2 2010-03-02
DE102010010246.6 2010-03-03
DE102010010246 2010-03-03
DE201010023914 DE102010023914A1 (de) 2010-03-02 2010-06-16 Verfahren und Vorrichtung zur Steuerung eines Statthalters

Publications (1)

Publication Number Publication Date
DE102010023914A1 true DE102010023914A1 (de) 2011-09-08

Family

ID=44503053

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201010023914 Withdrawn DE102010023914A1 (de) 2010-03-02 2010-06-16 Verfahren und Vorrichtung zur Steuerung eines Statthalters

Country Status (2)

Country Link
DE (1) DE102010023914A1 (de)
WO (1) WO2011107278A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103257027A (zh) * 2013-05-24 2013-08-21 山东泰山体育器材有限公司 一种体操器材运动仿真测试系统
DE102012002786A1 (de) * 2012-02-15 2013-08-22 Festo Ag & Co. Kg Manipulatorsystem und Verfahren zum Betreiben eines Manipulatorsystems
DE102012211190A1 (de) * 2012-06-28 2014-01-02 Deutsches Zentrum für Luft- und Raumfahrt e.V. Bewegungssimulator
EP2767967A4 (de) * 2011-10-12 2015-08-12 Korea Inst Sci & Tech Vorrichtung zum trainieren einer erkennungsfähigkeit mittels eines roboters und verfahren dafür
DE102016007741A1 (de) 2016-06-27 2017-12-28 Marcel Reese Erfindung das Gebiet betreffend von Exoskeletten, humanoiden Robotern und auch deren Verwendung in teleoperativen Anwendungen in virtuellen Welten oder der realen Welt
DE102016117760A1 (de) 2016-09-21 2018-03-22 Andre HERZOG Anordnung für einen Bewegungssimulator in Kombination mit einem stationären Ganzkörperexoskelett, einem Head-Mounted-Display und einem virtuellen Raum
US11926044B2 (en) 2016-11-11 2024-03-12 Sarcos Corp. Clutched joint modules having a quasi-passive elastic actuator for a robotic assembly
EP4253785A3 (de) * 2017-12-07 2024-04-24 Sarcos Corp. Widerstandsbasierte gelenkbeschränkung für ein master-robotersystem

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2800908B1 (de) * 2012-01-06 2018-01-31 Marvel Tech Inc. Interaktive elektrisch-hydraulische doppelfeedback-schleife
US9676098B2 (en) 2015-07-31 2017-06-13 Heinz Hemken Data collection from living subjects and controlling an autonomous robot using the data
US10166680B2 (en) 2015-07-31 2019-01-01 Heinz Hemken Autonomous robot using data captured from a living subject
US11762369B2 (en) * 2019-02-06 2023-09-19 Sensory Robotics, Inc. Robotic control via a virtual world simulation

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2344454A (en) 1942-12-07 1944-03-14 Bell Telephone Labor Inc Training device
JPH09109069A (ja) * 1995-10-13 1997-04-28 Gen Sugano パワード・インテリジェント方法及びユニット
US5845540A (en) * 1995-06-30 1998-12-08 Ross-Hime Designs, Incorporated Robotic manipulator
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6629896B2 (en) 2001-12-29 2003-10-07 Steven Jones Nimble virtual reality capsule using rotatable drive assembly
JP2007276052A (ja) * 2006-04-06 2007-10-25 Sony Corp 制御システム、記録システム、情報処理装置および方法、プログラム、並びに記録媒体
DE102007035401A1 (de) 2007-07-26 2009-01-29 Technische Universität Berlin Anordnung für ein Exoskelett und Gliedmaßen-Exoskelett
JP2010017804A (ja) * 2008-07-09 2010-01-28 Kao Corp マニプレータシステム
DE19882812B4 (de) * 1997-11-17 2011-03-03 Disney Enterprises, Inc., Burbank Achterbahn-Simulator

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997009153A1 (en) * 1995-09-08 1997-03-13 Ross-Hime Designs, Inc. Robotic manipulator
GB2400686A (en) * 2003-04-04 2004-10-20 Christopher Charles Box Motion logging and robotic control and display system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2344454A (en) 1942-12-07 1944-03-14 Bell Telephone Labor Inc Training device
US5845540A (en) * 1995-06-30 1998-12-08 Ross-Hime Designs, Incorporated Robotic manipulator
JPH09109069A (ja) * 1995-10-13 1997-04-28 Gen Sugano パワード・インテリジェント方法及びユニット
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
DE19882812B4 (de) * 1997-11-17 2011-03-03 Disney Enterprises, Inc., Burbank Achterbahn-Simulator
US6629896B2 (en) 2001-12-29 2003-10-07 Steven Jones Nimble virtual reality capsule using rotatable drive assembly
JP2007276052A (ja) * 2006-04-06 2007-10-25 Sony Corp 制御システム、記録システム、情報処理装置および方法、プログラム、並びに記録媒体
DE102007035401A1 (de) 2007-07-26 2009-01-29 Technische Universität Berlin Anordnung für ein Exoskelett und Gliedmaßen-Exoskelett
JP2010017804A (ja) * 2008-07-09 2010-01-28 Kao Corp マニプレータシステム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Development of Teleoperation Master System with a Kinesthetic Sensation of Presence", Hitoshi Hasunuma et al., ICAT '99 (siehe http://www.vrsj.org/ic-at/papers/99053.pdf; letzter Abruf Juni 2010)
"Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace", Shiu Hang Ip et al., ACRA 2009 (siehe http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf; letzter Abruf Juni 2010)
"Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace"; Shiu Hang Ip et al., ACRA 2009 (siehe http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf; letzter Abruf Juni 2010)
Springer Handbook of Robotics, Spinger, 2008

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2767967A4 (de) * 2011-10-12 2015-08-12 Korea Inst Sci & Tech Vorrichtung zum trainieren einer erkennungsfähigkeit mittels eines roboters und verfahren dafür
DE102012002786A1 (de) * 2012-02-15 2013-08-22 Festo Ag & Co. Kg Manipulatorsystem und Verfahren zum Betreiben eines Manipulatorsystems
DE102012002786B4 (de) * 2012-02-15 2017-06-01 Festo Ag & Co. Kg Manipulatorsystem und Verfahren zum Betreiben eines Manipulatorsystems
DE102012211190B4 (de) * 2012-06-28 2019-07-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Bewegungssimulator
DE102012211190A1 (de) * 2012-06-28 2014-01-02 Deutsches Zentrum für Luft- und Raumfahrt e.V. Bewegungssimulator
CN103257027B (zh) * 2013-05-24 2015-10-21 山东泰山体育器材有限公司 一种体操器材运动仿真测试系统
CN103257027A (zh) * 2013-05-24 2013-08-21 山东泰山体育器材有限公司 一种体操器材运动仿真测试系统
DE102016007741A1 (de) 2016-06-27 2017-12-28 Marcel Reese Erfindung das Gebiet betreffend von Exoskeletten, humanoiden Robotern und auch deren Verwendung in teleoperativen Anwendungen in virtuellen Welten oder der realen Welt
WO2018001555A3 (de) * 2016-06-27 2018-04-05 Marcel Reese Exoskelett und statthalter
WO2018001555A2 (de) 2016-06-27 2018-01-04 Marcel Reese Exoskelett und statthalter
JP7455413B2 (ja) 2016-06-27 2024-03-26 リース,マルセル エクソスケルトンとプロキシ
DE102016117760A1 (de) 2016-09-21 2018-03-22 Andre HERZOG Anordnung für einen Bewegungssimulator in Kombination mit einem stationären Ganzkörperexoskelett, einem Head-Mounted-Display und einem virtuellen Raum
US11926044B2 (en) 2016-11-11 2024-03-12 Sarcos Corp. Clutched joint modules having a quasi-passive elastic actuator for a robotic assembly
EP4253785A3 (de) * 2017-12-07 2024-04-24 Sarcos Corp. Widerstandsbasierte gelenkbeschränkung für ein master-robotersystem

Also Published As

Publication number Publication date
WO2011107278A1 (de) 2011-09-09

Similar Documents

Publication Publication Date Title
DE102010023914A1 (de) Verfahren und Vorrichtung zur Steuerung eines Statthalters
Culbertson et al. Haptics: The present and future of artificial touch sensation
US10875188B2 (en) Universal motion simulator
Cheng et al. CB: A humanoid research platform for exploring neuroscience
CA2882968C (en) Facilitating generation of autonomous control information
Shi et al. Design and control of a biomimetic robotic rat for interaction with laboratory rats
CN104823225A (zh) 遥控载具组合仿真及控制方法及装置
Ceccarelli et al. Designs and prototypes of mobile robots
Mauro et al. Dynamic flight simulation with a 3 dof parallel platform
Fröhner et al. An embodiment paradigm in evaluation of human-in-the-loop control
O'Malley et al. Passive and active assistance for human performance of a simulated underactuated dynamic task
WO2002059853A2 (de) Realitätssimulationssystem, schuch und gerät für dieses system und verwendung dieses systems
CN109213306A (zh) 一种机器人远程控制平台及其设计方法
Aykent et al. Influence of inertial stimulus on visuo-vestibular cues conflict for lateral dynamics at driving simulators
Amouri et al. Sliding movement platform for mixed reality application
Karpushkin et al. Structural model of software and hardware platform for the training complex based on a controlled treadmill
Hashimoto et al. Study on natural head motion in waiting state with receptionist robot SAYA that has human-like appearance
Rodriguez et al. A 3-D hand rehabilitation system using haptic device
EP3587043A1 (de) Anordnung und verfahren zur haptischen immersion eines nutzers
Endo et al. A finger skill transfer system using a multi-fingered haptic interface robot and a hand motion image
Ranasinghe et al. An optimal state dependent haptic guidance controller via a hard rein
Lioulemes Adaptive user and haptic interfaces for smart assessment and training
Houda Human Interaction in a large workspace parallel robot platform with a virtual environment
Sadri User interaction and motion dynamics simulations for microgravity-development of a concept and prototype for astronaut training with virtual reality
Kwon et al. 7-DOF horseback riding simulator based on a crank mechanism with variable radius and its inverse kinematics solution

Legal Events

Date Code Title Description
R163 Identified publications notified
R016 Response to examination communication
R163 Identified publications notified

Effective date: 20111123

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee