DE102013108114A1 - Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung - Google Patents

Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung Download PDF

Info

Publication number
DE102013108114A1
DE102013108114A1 DE102013108114.2A DE102013108114A DE102013108114A1 DE 102013108114 A1 DE102013108114 A1 DE 102013108114A1 DE 102013108114 A DE102013108114 A DE 102013108114A DE 102013108114 A1 DE102013108114 A1 DE 102013108114A1
Authority
DE
Germany
Prior art keywords
input device
robot
protective device
sensor
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102013108114.2A
Other languages
English (en)
Other versions
DE102013108114B4 (de
Inventor
Bernd Gombert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
Gomtec GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gomtec GmbH filed Critical Gomtec GmbH
Priority to DE102013108114.2A priority Critical patent/DE102013108114B4/de
Priority to PCT/EP2014/065708 priority patent/WO2015014668A1/de
Application granted granted Critical
Publication of DE102013108114B4 publication Critical patent/DE102013108114B4/de
Publication of DE102013108114A1 publication Critical patent/DE102013108114A1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00367Details of actuation of instruments, e.g. relations between pushing buttons, or the like, and activation of the tool, working tip, or the like
    • A61B2017/00371Multiple actuation, e.g. pushing of two buttons, or two working tips becoming operational
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/60Supports for surgeons, e.g. chairs or hand supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine Eingabevorrichtung (10) zum Steuern eines Robotersystems (3), mit einem Bildverarbeitungssystem (2, 9) zum Erfassen von Gesten, die von einem Bediener durch Bewegen wenigstens eines Arms (6a, 6b) und/ oder wenigstens einer Hand vorgegeben werden, und mit einer Steuereinheit (9), die bestimmte Gesten erkennt und in entsprechende Steuersignale zur Steuerung des Robotersystems (3) umsetzt. Gemäß der Erfindung ist eine armbetätigte Schutzeinrichtung (1, 9) vorgesehen, mit der die Steuerung des Robotersystems (3) aktiviert oder deaktiviert werden kann.

Description

  • Die Erfindung betrifft eine Eingabevorrichtung zum Steuern eines Roboters mittels Gesten gemäß dem Oberbegriff des Patentanspruchs 1, sowie ein Verfahren zum Steuern eines Roboters gemäß dem Oberbegriff des Patentanspruchs 13.
  • Bekannte Robotersysteme, auf die im Folgenden Bezug genommen wird, umfassen eine Eingabevorrichtung zur Gestensteuerung eines Roboters, mit einem Bildverarbeitungssystem zum Erfassen von Gesten, die von einem Benutzer z. B. durch Bewegen seiner Arme oder Hände vorgegeben werden. Das Bildverarbeitungssystem enthält eine Kamera und eine Steuereinheit, welche die von der Kamera aufgenommenen Bilddaten verarbeitet und in entsprechende Steuersignale umsetzt. Die Steuereinheit umfasst hierzu einen Softwarealgorithmus, der in der Lage ist, bestimmte Gesten des Benutzers zu erkennen, und der schließlich Steuersignale erzeugt, mit denen die Aktuatoren des Roboters oder z. B. eines am Roboters montierten Werkzeugs angesteuert werden, so dass der Roboter bzw. das Werkzeug die vom Benutzer gewünschten Aktionen ausführt.
  • Komplexere Robotersysteme, wie z. B. Chirurgieroboter, werden oftmals mit zwei Händen gleichzeitig bedient. Bei solchen Systemen kann der Benutzer z. B. mit einer ersten Hand eine erste Steuerfunktion, wie z. B. eine Bewegung des Roboterkopfes, und mit einer zweiten Hand eine zweite Steuerfunktion, wie z. B. eine Betätigung eines chirurgischen Instruments, ausführen.
  • Die Bedienung eines solchen Robotersystems mittels Gestensteuerung ist relativ schwierig und erfordert eine gewisse Einarbeitungszeit. Bei industriellen Anwendungen kann eine Fehlbedienung des Roboters zu einer Beschädigung des bearbeiteten Werkstücks oder einer Komponente des Robotersystems führen. Im Falle eines Chirurgie-Roboters kann eine Fehlbedienung zu einer Verletzung des Patienten führen und damit weit schwerwiegendere Konsequenzen nach sich ziehen. Im Bereich der Chirurgie-Roboter werden daher Schutzeinrichtungen verwendet, mit denen verhindert werden soll, dass eine vom Bediener ungewollt oder versehentlich ausgeführte Geste bzw. Steuervorgabe in eine entsprechende Aktion des Roboters umgesetzt wird.
  • Aus der US 8,332,072 ist beispielsweise ein manuell bedienbares Eingabegerät zur Steuerung eines Chirurgie-Roboters bekannt, das in ähnlicher Weise wie ein Joystick bedient wird. Die vom Bediener manuell ausgeführten Steuervorgaben werden dabei in entsprechende Steuerbefehle für den Roboter umgewandelt. Um Fehlbedienungen des Roboters zu vermeiden, muss der Bediener, während er das Eingabegerät bedient, gleichzeitig einen Schalter betätigen, der in einem Griff des Eingabegeräts integriert ist. Wenn der Bediener den Griff umgreift, wird der Schalter automatisch aktiviert. Dadurch bestätigt der Bediener, dass die von ihm ausgeführten Eingaben gewollt und gültig sind. Wenn der Bediener seine Hand jedoch vom Griff löst, wird das Eingabegerät automatisch deaktiviert. Ungewollte Steuervorgaben, wie z. B. ein versehentliches Stoßen gegen das Eingabegerät, werden somit nicht in entsprechende Steuerbefehle für den Roboter umgesetzt und haben daher keine Wirkung.
  • Aus der US 2011/0001813 ist ferner eine Eingabevorrichtung zur Gestensteuerung eines Roboters bekannt, die unterschiedliche Handgesten erkennen kann und in entsprechende Steuerbefehle für den Roboter umsetzt. Die Eingabevorrichtung umfasst ein Bildverarbeitungssystem, mit dem die Gesten aufgezeichnet werden. Bei einer solchen Eingabevorrichtung kann es jedoch zu Fehlbedienungen des Roboters kommen, wenn der Bediener den Arm oder die Hand bewegt, ohne aber den Roboter steuern zu wollen. Da in der Regel beide Hände zum Ausführen bestimmter Steuervorgaben bzw. Gesten benötigt werden, wäre ein Griff mit einem darin integrierten Schalter, wie er aus der US 8,232,072 bekannt ist, in diesem Fall hinderlich.
  • Es ist somit eine Aufgabe der vorliegenden Erfindung, eine Eingabevorrichtung zur Gestensteuerung eines Robotersystems zu schaffen, bei der Fehlbedienungen des Robotersystems durch ungewollt ausgeführte Steuervorgaben im Wesentlichen ausgeschlossen sind.
  • Gelöst wird diese Aufgabe gemäß der Erfindung durch die im Patentanspruch 1 sowie im Patentanspruch 13 angegebenen Merkmale. Weitere Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen.
  • Gemäß der Erfindung wird eine Eingabevorrichtung zum Steuern eines Robotersystems mittels Gesten vorgeschlagen, die ein Bildverarbeitungssystem zum Erfassen von Gesten, die von einem Bediener durch Bewegen wenigstens eines Arms und/oder wenigstens einer Hand vorgegeben werden, und ferner eine Steuereinheit aufweist, die bestimmte Gesten erkennt und in entsprechende Steuerbefehle zur Steuerung des Robotersystems umsetzt. Gemäß der Erfindung umfasst die Eingabevorrichtung ferner eine Schutzeinrichtung, die mittels eines Arms betätigbar ist, wobei die Schutzeinrichtung die Gestensteuerung aktiv schaltet, wenn sie betätigt wird, und deaktiviert, wenn sie nicht betätigt wird. Da die erfindungsgemäße Schutzeinrichtung einen armbetätigten Sensor umfasst, hat der Bediener des Roboters die Hände frei und kann somit den Roboter ungehindert steuern. Wenn er den Arm von der Schutzeinrichtung abhebt, kann er damit anzeigen, dass seine nachfolgenden Arm- oder Handbewegungen nicht mehr als Steuervorgaben zu werten sind und kann somit die Gestensteuerung des Robotersystems zumindest in Bezug auf diesen Arm bzw. diese Hand deaktivieren.
  • Unter einem „Robotersystem“ wird im Rahmen dieses Dokuments insbesondere ein technisches System mit einem oder mehreren Robotern verstanden, das ferner ein oder mehrere roboterbetätigte Werkzeuge und/oder eine oder mehrere weitere Maschinen umfassen kann. Ein Robotersystem, das für den Einsatz in der minimal invasiven Chirurgie ausgerüstet ist, kann z. B. einen oder mehrere Roboter, die jeweils mit einem chirurgischen Instrument oder einem anderen Werkzeug bestückt sind, sowie einen elektrisch verstellbaren Operationstisch umfassen, wobei sämtliche Komponenten des Robotersystems vorzugsweise durch Gestensteuerung gesteuert werden können.
  • Unter einem „Roboter“ wird im Rahmen dieses Dokuments insbesondere jede Maschine mit einem oder mehreren Gelenkarmen verstanden, die mittels eines oder mehrerer Aktuatoren, wie z. B. Elektromotoren, bewegbar sind.
  • Gemäß der Erfindung umfasst die Eingabevorrichtung ein Bilderfassungssystem, das die Hand- oder Armbewegungen eines Bedieners in entsprechende Steuersignale umsetzt, mit denen dann eine Maschine gesteuert wird. Ein solches System weist z. B. eine Kamera auf, die innerhalb eines Bilderfassungsbereichs verschiedene Gesten eines Benutzers aufzeichnen kann. Die aufgezeichneten Gesten können z. B. mit einer Datenbank abgeglichen werden, in der verschiedene Gesten abgespeichert sind. Bei Übereinstimmung einer vom Bediener ausgeführten Geste mit einer gespeicherten Geste wird ein zugehöriger Steuerbefehl ausgelöst.
  • Gemäß der Erfindung umfasst die Schutzeinrichtung wenigstens einen Sensor, der mittels eines Arms betätigt werden kann. Da der Sensor mittels des Arms betätigt wird, hat der Bediener die Hände frei und kann den Roboter mittels Gestensteuerung präzise steuern.
  • Bei dem vorstehend genannten Sensor kann es sich z. B. um einen berührungsempfindlichen Sensor, insbesondere einen Schalter oder Taster, oder um einen berührungslosen Sensor, wie z. B. einen Näherungssensor oder auch eine Kamera, handeln. Im Falle der Kamera könnte dann eine bestimmte Stellung oder Position des Arms erfasst werden, ebenso wie Verformungen einer Armauflage, auf der sich die Arme abstützen können.
  • Der Sensor ist vorzugsweise derart angeordnet, dass er mittels des Ellenbogens oder des Unterarms betätigt werden kann.
  • Gemäß einer speziellen Ausführungsform der Erfindung kann der wenigstens eine Sensor z. B. in einer Armauflage integriert sein. Die Armauflage kann beispielsweise die Armlehne eines Stuhls sein. Alternativ könnte aber auch eine separate Armauflage vorgesehen sein, die z. B. am Stuhl oder an einem anderen Gerät des Robotersystems befestigt sein kann. Gemäß einer anderen Ausführungsform der Erfindung könnte auch eine Art Tisch vorgesehen sein, auf den sich der Bediener mit seinen beiden Ellenbögen abstützt. In dem Tisch sind in diesem Fall ein oder mehrere Sensoren zum Aktivieren/Deaktivieren der Gestensteuerung integriert. Die Armauflage könnte auch in einer Bedienkonsole integriert sein.
  • Gemäß einer bevorzugten Ausführungsform der Erfindung ist für beide Arme des Bedieners jeweils ein Sensor vorgesehen. Wenn die erfindungsgemäße Schutzeinrichtung wenigstens zwei Sensoren umfasst (unter „zwei Sensoren“ soll auch eine Sensorik verstanden werden, die sensitiv auf die Berührung durch zwei Arme ist) kann das Robotersystem in Abhängigkeit vom Betätigungszustand der Sensoren nach unterschiedlichen Methoden aktiviert bzw. deaktiviert werden:
    Gemäß einer ersten Ausführungsform der Erfindung ist die Schutzeinrichtung derart ausgelegt, dass die Eingabevorrichtung bzw. Gestensteuerung vollständig deaktiviert wird, wenn wenigstens einer der Sensoren nicht betätigt wird. Der Bediener muss also beide Sensoren mittels seiner Arme betätigen, um das Robotersystem steuern zu können. Nimmt er nur einen seiner Arme vom Sensor weg, wird die Eingabevorrichtung bzw. Gestensteuerung vollständig deaktiviert.
  • Gemäß einer zweiten Ausführungsform der Erfindung ist die Schutzeinrichtung derart ausgelegt, dass die Eingabevorrichtung nur für denjenigen Arm deaktiviert wird, der den zugehörigen Sensor nicht betätigt. Solange der Bediener aber mit wenigstens einem Arm den zugehörigen Sensor betätigt, kann er das Robotersystem mit diesem Arm bzw. dessen Hand weiterhin steuern. Bewegungen, die der Bediener mit einem Arm bzw. dessen Hand ausführt, ohne dabei den zugehörigen Sensor zu betätigen, werden dagegen nicht als Steuervorgabe interpretiert und somit nicht in eine entsprechende Aktion des Robotersystems umgesetzt.
  • Gemäß einer dritten Ausführungsform der Erfindung kann die Schutzeinrichtung auch derart ausgeführt sein, dass die Eingabevorrichtung für beide Arme aktiviert ist, wenn wenigstens einer der Sensoren betätigt wird, und vollständig deaktiviert wird, wenn keiner der Sensoren betätigt wird. D.h. der Bediener muss nur wenigstens einen der Sensoren betätigen, um mit beiden Armen bzw. Händen das Robotersystem steuern zu können.
  • Mittels der erfindungsgemäßen Eingabevorrichtung können grundsätzlich beliebige Komponenten eines Robotersystems gesteuert werden, wie z. B. Roboter beliebiger Bauform, roboterbetätigte Werkzeuge, aber auch beliebige andere Maschinen oder einzelne Teile des Robotersystems. Der linke und rechte Arm und/oder die linke oder rechte Hand können dabei zur Steuerung desselben bzw. derselben Aktuatoren oder verschiedener Aktuatoren eines Roboters und/oder eines Werkzeugs und/oder einer anderen Komponente des Robotersystems dienen. So kann z. B. die Position eines Roboterkopfes mittels des ersten Arms bzw. der ersten Hand, und ein vom Roboter getragenes Werkzeug mittels des zweiten Arms bzw. der zweiten Hand gesteuert werden. Die Eingabevorrichtung bzw. deren Bilderfassungssystem ist in diesem Fall vorzugsweise derart ausgelegt, dass es die vom linken und rechten Arm bzw. linken und rechten Hand ausgeführten Gesten unterscheiden kann.
  • Gemäß einer speziellen Ausführungsform der Erfindung ist die Schutzeinrichtung vorzugsweise redundant ausgelegt. Hierzu überprüft das Bilderfassungssystem, ob wenigstens ein Sensor von einem Arm betätigt wird, und ob das vom Sensor ausgegebene Signal mit dem Ergebnis der Bildverarbeitung übereinstimmt. Wenn der Sensor bzw. dessen Ausgangssignal einen betätigten Zustand anzeigt und das Bildverarbeitungssystem ebenfalls einen betätigten Zustand erkennt, ist die Eingabevorrichtung zumindest für den betreffenden Arm aktiv. Wenn sich allerdings der vom Sensor erfasste Betätigungszustand von dem vom Bilderfassungssystem erkannten Betätigungszustand unterscheidet, wird dieser Zustand von der Schutzeinrichtung als Fehler erkannt und die Eingabevorrichtung wird vorzugsweise vollständig deaktiviert.
  • Die Erfindung betrifft auch ein Verfahren zum Steuern eines Roboters mittels Gestensteuerung, bei dem die von einem Bediener durch Bewegen seiner Arme oder Hände vorgegebenen Gesten mittels eines Bildverarbeitungssystems erfasst und die vom Bildverarbeitungssystem aufgenommenen Bilddaten verarbeitet und in entsprechende Steuerbefehle zum Steuern des Robotersystems umgesetzt werden. Gemäß der Erfindung wird ferner ermittelt, ob eine vom Bediener mittels eines Arms betätigbare Schutzeinrichtung betätigt wird. Falls die Schutzeinrichtung betätigt wird, kann der Bediener das Robotersystem zumindest mit einem Arm und/oder einer Hand steuern. Wird die Schutzeinrichtung aber nicht betätigt, wird die Eingabevorrichtung deaktiviert. Der Bediener kann das Robotersystem dann zumindest mit einem seiner Arme und/oder Hände nicht mehr steuern.
  • Kurze Beschreibung der Zeichnungen
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung eines Robotersystems mit einem Bilderfassungssystem, das als Eingabevorrichtung zum Steuern eines Roboters dient;
  • 2 eine erste Ausführungsform einer Schutzeinrichtung zum Aktivieren/Deaktivieren des Robotersystems von 1; und
  • 3 eine zweite Ausführungsform einer Schutzeinrichtung zum Aktivieren/Deaktivieren des Robotersystems von 1.
  • 4 eine Weiterbildung des Robotersystems, die eine optische Rückmeldung an den Benutzer der Schutzeinrichtung liefert.
  • Ausführungsformen der Erfindung
  • 1 zeigt ein Robotersystem mit einem Roboter 3 für die minimal invasive Chirurgie. Der Roboter 3 hat in diesem Ausführungsbeispiel zwei Gelenkarme, die jeweils über ein oder mehrere Gelenke miteinander verbunden sind. Die einzelnen Gelenke werden jeweils mittels eines Motors, hier eines Elektromotors (nicht gezeigt), angetrieben und können eine Schwenk- und/oder Rollbewegung der Gelenkarme ausführen.
  • Der Roboter 3 hat ein frei bewegliches Ende, das auch als Roboterkopf bezeichnet werden kann, sowie ein festes Ende, das hier an einem OP-Tisch 12 montiert ist. An dem Roboterkopf ist ein chirurgisches Instrument 11 befestigt, das auf den jeweiligen Einsatzzweck des Roboters abgestimmt ist. Für den chirurgischen Einsatz des Roboters 3 kann der Roboterkopf beispielsweise mit einem Endoskop, einem laparoskopischen Instrument, einem Schneid-, Greif-, Halte-, Verbinde-, Näh- oder einem anderen chirurgischen Werkzeug bzw. Instrument 11 bestückt sein.
  • Das in der 1 dargestellte Robotersystem wird mittels einer Eingabevorrichtung 10 gesteuert, die in diesem Ausführungsbeispiel eine Kamera 2 und eine Steuereinheit 9 umfasst. Die Kamera 2 ist auf den Bediener des Robotersystems, wie z. B. einen Arzt, gerichtet, dessen beide Arme 6a, 6b hier schematisch dargestellt sind. Der Bediener kann durch Ausführen bestimmter Steuervorgaben mittels seiner Arme 6a, 6b oder Hände den Roboter 3 und/oder das am Roboterkopf befestigte Werkzeug und/oder andere Komponenten des Robotersystems, wie z. B. den OP-Tisch 12, steuern.
  • Während des Betriebs zeichnet die Kamera 2 laufend Bilder auf, die von einer in der Steuereinheit 9 enthaltenen Bildverarbeitungssoftware verarbeitet werden. Die Bildverarbeitungssoftware ist dabei in der Lage, mit den Unterarmen, Händen oder Fingern ausgeführte Bewegungen als Steuervorgabe zu interpretieren und entsprechende Steuersignale zu generieren. Zur Erkennung einer bestimmten Bewegung oder Geste können die von der Kamera 2 aufgenommenen Bilder z. B. mit den in einer Datenbank abgelegten Bewegungsmustern bzw. Gesten verglichen werden. Bei Übereinstimmung einer erfassten Geste mit einer in der Datenbank gespeicherten Geste, wird ein zugehöriges Steuersignal generiert, mittels dessen schließlich der Roboter 3 oder eine andere Komponente des Robotersystems, z.B. das Instrument 11, gesteuert wird. Die Eingabevorrichtung 10 ist vorzugsweise so konfiguriert, dass sowohl statische Gesten, wie z. B. Handzeichen, als auch dynamische Gesten, wie z. B. Winken, erkannt werden können.
  • Durch Ausführen bestimmter Steuervorgaben kann somit z. B. die Position des Roboterkopfes und/oder die Lage des chirurgischen Instruments 11 beeinflusst werden. Es könnten aber auch einzelne Aktuatoren des Roboters 3 oder des chirurgischen Instruments 11 separat angesteuert werden. So könnte beispielsweise durch eine translatorische Bewegung eines ersten Arms, z. B. 6a, der Roboter entsprechend bewegt, und durch eine mit der anderen Hand ausgeführte Geste das Werkzeug bzw. chirurgische Instrument 11 betätigt werden. Die vom Robotersystem in Reaktion auf eine bestimmte Steuervorgabe durchgeführte Aktion ist vorzugsweise frei konfigurierbar.
  • Um bei der Durchführung eines chirurgischen Eingriffs zu verhindern, dass der Patient durch ungewollte oder versehentliche Arm- und / oder Hand-Bewegungen möglicherweise verletzt wird, umfasst das in 1 dargestellte Robotersystem ferner eine Schutzeinrichtung 1, 9 mit der die Gestensteuerung wahlweise deaktiviert werden kann. Durch Auslösen der Schutzeinrichtung 1, 9 kann der Bediener dem Robotersystem anzeigen, dass nachfolgende Hand- bzw. Armbewegungen nicht mehr als Steuervorgaben interpretiert werden sollen und kann somit die Gestensteuerung des Robotersystems deaktivieren. Im dargestellten Ausführungsbeispiel umfasst die Schutzeinrichtung eine Armauflage 4, in der für jeden Arm 6a, 6b ein zugehöriger Sensor 5a, 5b integriert ist. Die Armauflage 4 kann z. B. Bestandteil einer Stuhl- bzw. Sitzlehne sein.
  • Bei den Sensoren 5a, 5b kann es sich beispielsweise um berührungsempfindliche Sensoren, wie z. B. Schalter oder Taster, oder nach dem kapazitiven oder induktiven Prinzip arbeitende Sensoren handeln. Wahlweise könnten auch berührungslose Sensoren, wie z. B. Näherungsschalter, vorgesehen sein, die bereits bei Annäherung an die Sensorfläche reagieren.
  • Wie in 1 zu erkennen ist, stützt sich der Bediener zum Steuern des Robotersystems mit seinen Ellenbogen 8a, 8b jeweils auf einen der Sensoren 5a, 5b. Die Unterarme 7a, 7b und die Hände bleiben dadurch frei beweglich. Der Bediener kann somit mittels seiner Unterarme 7a, 7b und/oder Hände verschiedene Bewegungen ausführen und somit das Robotersystem entsprechend steuern. Nimmt der Bediener einen seiner Arme 6a, 6b vom zugehörigen Sensor 5a, 5b, kann er dadurch die Gestensteuerung des Robotersystems deaktivieren. Die Schutzeinrichtung 1, 9 funktioniert dabei wie ein Schalter, mit dem die Steuerung des Robotersystems aktiviert oder deaktiviert werden kann. Setzt der Bediener seinen Ellenbogen 8a, 8b auf einen der Sensoren 5a, 5b auf, zeigt er damit an, dass die von ihm im Folgenden ausgeführten Gesten als Steuervorgaben zu werten sind. In diesem Fall werden die vom Bilderfassungssystem 10 erkannten Gesten in entsprechende Steuersignale umgesetzt. Möchte der Bediener, dass seine Arm- oder Handbewegungen nicht als Steuervorgabe interpretiert werden, so kann er seinen Arm vom jeweiligen Sensor 5a, 5b abheben und somit die Steuerung deaktivieren.
  • Wenn, wie im dargestellten Ausführungsbeispiel, das Auflegen beider Arme 6a, 6b sensorisch erfasst wird, gibt es prinzipiell mehrere Möglichkeiten, die Schutzeinrichtung 1, 9 zu konfigurieren. Gemäß einer ersten Ausführungsform der Erfindung ist die Schutzeinrichtung 1, 9 derart konfiguriert, dass beide Sensoren 5a, 5b betätigt werden müssen, um die Steuerung zu aktivieren. Wird nur einer der Sensoren 5a, 5b nicht betätigt, ist die Steuerung vollständig deaktiviert und das Robotersystem kann nicht mehr durch Eingabe von Gesten gesteuert werden.
  • Gemäß einer zweiten Ausführungsform der Erfindung, wie z. B. 3 zeigt, ist die Schutzeinrichtung derart konfiguriert, dass die Steuerung für einen Arm 6a, 6b aktiviert ist, der einen der Sensoren 5a, 5b betätigt. Ein Arm 6a, 6b, der keinen Sensor 5a, 5b betätigt, wird dagegen von der Eingabevorrichtung 10 ignoriert und kann nicht zur Steuerung des Robotersystems genutzt werden. Ferner ist die Gestenerkennung derart ausgelegt, den rechten Arm / Hand und den linken Arm 7 / Hand eines Benutzers voneinander zu unterscheiden und getrennt auszuwerten. Ein dafür geeigneter Algorithmus kann in der Gestenerkennung implementiert sein.
  • Gemäß einer dritten Ausführungsform der Erfindung kann die Schutzeinrichtung 1, 9 auch derart konfiguriert sein, dass das Robotersystem von beiden Armen 6a, 6b bzw. Händen gesteuert werden kann, wenn wenigstens einer der Sensoren 5a, 5b betätigt wird. D.h. der Bediener muss nur wenigstens einen der Sensoren 5a, 5b betätigen, um mit beiden Armen das Robotersystem steuern zu können. Wird dagegen keiner der Sensoren 5a, 5b betätigt, wird die Gestensteuerung vollständig deaktiviert.
  • Um die Gestensteuerung zu aktivieren bzw. zu deaktivieren, kann die Eingabevorrichtung 10 z. B. einen Hardware- oder Software-Schalter aufweisen, der z. B. die Weiterleitung der Steuersignale an den Roboter 3 unterbricht.
  • Anstelle zweier separater Sensoren 5a, 5b könnte natürlich auch ein einziger Sensor vorgesehen sein, der in der Lage ist, eine Betätigung mittels eines oder zweier Arme 6a, 6b zu unterscheiden.
  • Gemäß einer bevorzugten Ausführungsform der Erfindung ist die Schutzeinrichtung 1, 9 redundant ausgelegt. In diesem Fall wird das Bilderfassungssystem 10 dazu genutzt, zu überprüfen, ob wenigstens einer der Sensoren 5a, 5b von einem Arm 6a, 6b, betätigt wird. Das von den Sensoren 5a, 5b ausgegebene Signal wird dann mit dem Ergebnis der optischen Bilderkennung verglichen. Wenn beide Signale übereinstimmend anzeigen, dass einer der Sensoren 5a, 5b betätigt wird, wird der betätigte Zustand des Sensors 5a, 5b als sicher angenommen. Je nach Ausführungsform der Schutzeinrichtung kann dann die Gestensteuerung entsprechend aktiviert oder deaktiviert werden.
  • Gemäß einer Weiterbildung der Erfindung kann die Funktionsweise der Schutzeinrichtung vom Bediener frei gewählt werden. Hierzu kann das Robotersystem z. B. einen Schalter oder andere Eingabemittel aufweisen, mit denen zwischen den verschiedenen Betriebsarten umgeschaltet werden kann. So können z. B. erfahrene Benutzer die weniger restriktive Betriebsart der Schutzeinrichtung aktivieren, nach der es genügt, wenn einer der Sensoren betätigt wird, und unerfahrene Benutzer können die restriktivere Betriebsart auswählen, nach der beide Sensoren 5a, 5b betätigt werden müssen, um die Gestensteuerung zu aktivieren.
  • 2 zeigt eine Ausführungsform einer Schutzeinrichtung mit einem Sensor 5, der in einer Armlehne eines Stuhls integriert ist. Die Schutzeinrichtung wird in diesem Fall durch Auflegen eines Unterarms 7b aktiviert bzw. deaktiviert.
  • 3 zeigt eine Ausführungsform einer Schutzeinrichtung mit zwei Sensoren 5a, 5b, die in einer Armauflage 4 integriert sind. Für jeden Arm 6a, 6b ist dabei ein separater Sensor 5a bzw. 5b vorgesehen. Wie zu erkennen ist, werden die Sensoren bei dieser Ausführungsform durch Aufstützen der Ellenbögen 8a, 8b betätigt.
  • Je nach Ausgestaltung der Auflage werden dem Benutzer unterschiedliche Freiheitsgrade ermöglicht. Im Falle der Armauflage nach 2 kann der Benutzer nur seine Hände frei bewegen. Die Darstellung von Gesten zur Steuerung des Robotersystems 3 ist damit auf Hand- oder Fingerbewegungen beschränkt. Im Falle der Ellenbogenauflage nach 1 oder 3 kann der Benutzer seine Unterarme 7a, 7b bewegen. D.h. der Benutzer kann somit zum Anzeigen bestimmter Gesten auch eine Bewegung seiner Unterarme 7a, 7b einbeziehen, so dass z. B. eine bestimmte Unterarmbewegung als Geste interpretiert werden kann.
  • 4 zeigt eine Weiterbildung der Erfindung, die eine optische Rückmeldung an den Benutzer der Schutzeinrichtung 1 liefert. So kann dem Benutzer angezeigt werden, inwiefern durch die Schutzeinrichtung 1 der Roboter 3, das Instrument 11 und / oder der OP-Tisch 12 aktiv oder inaktiv geschaltet sind. Hierzu ist die Schutzeinrichtung 1 mit einem Monitor 13 verbunden, der die vom Benutzer zu bedienenden Elemente darstellt. Der Status des zu bedienenden Elements kann farblich am Monitor hervorgehoben werden. Beispielsweise können alle aktiven Elemente grün und alle inaktiven Elemente rot am Monitor dargestellt werden.
  • Beispielsweise wird Instrument 11 bedient und am Monitor 13 angezeigt. Das Instrument 11 weist mehrere Achsen 14, 15 und 16 auf, um die Teile des Instruments 11 geschwenkt werden können. Durch die Gestenerkennung können beispielsweise einzelne Teile des Instruments angesteuert werden. So kann mit dem Arm 6a der Schaft 17 des Instruments 11 um die Achse 14 gedreht werden und mit dem Arm 6b der Endeffektor 18 um die Achse 16 betätigt werden.
  • Da jedoch nur der Arm 6b die Schutzeinrichtung 1 betätigt, sind je nach Ausführungsform der Erfindung unterschiedliche Elemente des Instruments 11 aktiv. Beispielsweise arbeitet die Schutzeinrichtung 1 nach der zweiten Ausführungsform, bei der nur Elemente von demjenigen Arm gesteuert werden können, der die Schutzeinrichtung 1 betätigt. Gemäß 4 betätigt nur Arm 6b die Schutzeinrichtung 1, so dass folglich nur der Endeffektor 18 um die Achse 16 bewegt werden könnte. Gesten des Armes 6a würden ignoriert werden und würden keine Bewegung des Instruments 11 um die Achse 14 auslösen. Demnach wäre Achse 16 aktiv und Achse 14 inaktiv. Dieser Zustand könnte dem Benutzer am Monitor durch eine entsprechende farbliche Markierung angezeigt werden. Z. B. kann der Endeffektor 18 und / oder dessen Achse 16 grün und der Schaft 17 und / oder dessen Achse 14 rot dargestellt werden. Somit erhält der Benutzer unmittelbar eine Zustandsrückmeldung darüber, welche Elemente im Moment aktiv bedienbar sind und welche nicht.
  • Die Weiterbildung kann analog auf beliebige von den Händen bzw. Armen ansteuerbare Elemente übertragen werden. Somit ist die Bedienung mithilfe der Gestenerkennung nicht nur auf ein Instrument beschränkt, sondern kann mehrere Instrumente umfassen. Ferner kann anstelle eines Instruments auch ein Roboter und / oder der OP-Tisch angesteuert werden. Beispielsweise kann der Benutzer mittels Gesten seiner Hände bzw. Arme zwei Instrumente gleichzeitig ansteuern, wobei er mit Arm 6a ein Instrument 19 und mit Arm 6b ein anderes Instrument 11 ansteuern kann. Analog zu obiger Ausführung kann aber nur ein Instrument bedient werden, nämlich Instrument 11, da nur Arm 6b die Schutzeinrichtung 1 betätigt. D. h. Instrument 19 wäre inaktiv. Um diesen Zustand wiederum am Monitor 13 farblich anzuzeigen, könnte das Instrument 19 mit einer roten Markierung und Instrument 11 mit einer grünen Markierung hervorgehoben werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8332072 [0005]
    • US 2011/0001813 [0006]
    • US 8232072 [0006]

Claims (15)

  1. Eingabevorrichtung (10) zum Steuern eines Roboters (3) mittels Gesten, mit einem Bildverarbeitungssystem (2, 9) zum Erfassen von Gesten, die von einem Benutzer durch Bewegen wenigstens eines Arms (6a, 6b) und/oder einer Hand vorgegeben werden, und mit einer Steuereinheit (9), die bestimmte Gesten erkennen und in entsprechende Steuersignale zur Steuerung des Roboters (3), eines Instruments (11) und / oder eines OP-Tisches (12) umsetzen kann, gekennzeichnet durch eine armbetätigte Schutzeinrichtung (1, 9), die die Gestensteuerung des Roboters (3) aktiv schaltet, wenn sie betätigt wird, und deaktiviert wenn sie nicht betätigt wird.
  2. Eingabevorrichtung (10) nach Anspruch 1, dadurch gekennzeichnet, dass die Schutzeinrichtung (1, 9) wenigstens einen armbetätigten Sensor (5a, 5b) umfasst.
  3. Eingabevorrichtung (10) nach Anspruch 2, dadurch gekennzeichnet, dass die Schutzeinrichtung (1, 9) wenigstens einen berührungsempfindlichen Sensor (5a, 5b), insbesondere einen Schalter oder Taster, und/oder wenigstens einen berührungslosen Sensor (5a, 5b), insbesondere einen Näherungssensor, umfasst.
  4. Eingabevorrichtung (10) nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der wenigstens eine Sensor (5a, 5b) in einer Armauflage (4) integriert ist.
  5. Eingabevorrichtung (10) nach Anspruch 4, dadurch gekennzeichnet, dass die Armauflage (4) Bestandteil eines Stuhls und insbesondere eine Armlehne ist.
  6. Eingabevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Schutzeinrichtung (1, 9) derart ausgebildet ist, dass sie mittels eines Ellbogens (8a, 8b) oder mittels eines Unterarms (7a, 7b) bedient werden kann.
  7. Eingabevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Schutzeinrichtung (1, 9) für beide Arme (6a, 6b) eines Benutzers einen Sensor (5a, 5b) aufweist.
  8. Eingabevorrichtung (10) nach Anspruch 7, dadurch gekennzeichnet, dass die Schutzeinrichtung (1, 9) derart ausgebildet ist, dass die Gestensteuerung des Roboters (3), des Instruments (11) und / oder des OP-Tisches (12) für beide Arme deaktiviert wird, wenn einer der Sensoren (5a, 5b) nicht betätigt wird.
  9. Eingabevorrichtung (10) nach Anspruch 7, dadurch gekennzeichnet, dass die Schutzeinrichtung (1, 9) derart ausgebildet ist, dass die Gestensteuerung des Roboters (3), des Instruments (11) und / oder des OP-Tisches (12) nur für denjenigen Arm (6a, 6b) deaktiviert wird, der den zugehörigen Sensor (5a, 5b) nicht betätigt.
  10. Eingabevorrichtung (10) nach Anspruch 7, dadurch gekennzeichnet, dass die Schutzeinrichtung (1, 9) derart ausgebildet ist, dass die Gestensteuerung des Roboters (3), des Instruments (11) und / oder des OP-Tisches (12) für beide Arme aktiv ist, wenn wenigstens einer der Sensoren (5a, 5b) betätigt wird.
  11. Eingabevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bildverarbeitungssystem (2, 9) derart ausgebildet ist, dass es vom linken und rechten Arm (6a, 6b) bzw. von der linken und rechten Hand ausgeführte Gesten unterscheiden kann.
  12. Eingabevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bildverarbeitungssystem (2, 9) überprüft, ob der wenigstens eine Sensor (5a, 5b) betätigt wird, und die Schutzeinrichtung (1, 9) derart ausgebildet ist, dass die Gestensteuerung nur dann aktiv ist, wenn der wenigstens eine Sensor (5a, 5b) anzeigt, dass er betätigt wird und auch das Bildverarbeitungssystem (2, 9) erkennt, dass der Sensor (5a, 5b) betätigt wird.
  13. Eingabevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Eingabevorrichtung (10) Mittel zum Auswählen einer bestimmten Betriebsart aufweist, so dass die Eingabevorrichtung (10) entsprechend der gewählten Betriebsart entweder nach Anspruch 8, 9 der 10 betrieben werden kann.
  14. Eingabevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Eingabevorrichtung (10) Mittel zum optischen Anzeigen (13) des jeweiligen Status der mittels Gesten der Hände und / oder Arme (6a, 6b) steuerbaren Elemente (3, 11, 12, 17, 18, 19) in Abhängigkeit der Betätigung der Schutzeinrichtung (1) aufweist.
  15. Verfahren zum Steuern eines Roboters (3) mittels Gestensteuerung, das folgende Schritte umfasst: – Erfassen von Gesten, die von einem Benutzer durch Bewegen seiner Arme (6a, 6b) und/ oder Hände vorgegeben werden, mittels eines Bildverarbeitungssystems (2, 9); und – Steuern des Roboters (3), des Instruments (11) und / oder des OP-Tisches (12) entsprechend der vom Benutzer vorgegebenen Gesten; ferner gekennzeichnet durch folgende Schritte: – Ermitteln, ob der Benutzer eine armbetätigte Schutzeinrichtung (1, 9) betätigt, – Aktivieren der Gestensteuerung, wenn erkannt wurde, dass der Benutzer die Schutzeinrichtung (1, 9) betätigt; und – Deaktivieren der Gestensteuerung, wenn erkannt wurde, dass der Benutzer die Schutzeinrichtung (1, 9) nicht betätigt.
DE102013108114.2A 2013-07-30 2013-07-30 Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung Active DE102013108114B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102013108114.2A DE102013108114B4 (de) 2013-07-30 2013-07-30 Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung
PCT/EP2014/065708 WO2015014668A1 (de) 2013-07-30 2014-07-22 Eingabevorrichtung zur gestensteuerung mit schutzeinrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013108114.2A DE102013108114B4 (de) 2013-07-30 2013-07-30 Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung

Publications (2)

Publication Number Publication Date
DE102013108114B4 DE102013108114B4 (de) 2015-02-12
DE102013108114A1 true DE102013108114A1 (de) 2015-02-19

Family

ID=51224930

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013108114.2A Active DE102013108114B4 (de) 2013-07-30 2013-07-30 Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung

Country Status (2)

Country Link
DE (1) DE102013108114B4 (de)
WO (1) WO2015014668A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016221861A1 (de) 2016-11-08 2018-05-09 Volkswagen Aktiengesellschaft Einrichtung und Verfahren zur Einwirkung auf Gegenstände
DE102017007908A1 (de) * 2017-08-21 2019-02-21 Hochschule Bochum Verfahren zur Steuerung der Bewegung eines mobilen Roboters
US10702987B2 (en) 2016-09-13 2020-07-07 Fanuc Corporation Robot system having teach pendant communicating with robot controller
DE112017008358B3 (de) 2016-06-17 2022-08-11 Intel Corporation Visionsbasiertes Robotersteuerungssystem
DE102021119646A1 (de) 2021-07-28 2023-02-02 Karl Storz Se & Co. Kg Eingabeeinheit für ein medizinisches Instrument sowie medizinisches System mit einer Eingabeeinheit

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108214482B (zh) * 2016-12-14 2021-02-02 上银科技股份有限公司 非接触式的手势教导机器人
CN107582305A (zh) * 2017-10-11 2018-01-16 中南大学湘雅二医院 一种体感控制的手术床
DE102019001373B4 (de) * 2019-02-27 2020-11-19 Florian Fried Verfahren zum berührungslosen Führen eines Robotersystems in einer Mensch-Roboter-Kollaboration (MRK)
DE102019115763A1 (de) * 2019-06-11 2020-12-17 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Betreiben eines Human Machine Interface
CN114521971B (zh) * 2022-04-24 2022-07-05 深圳市爱博医疗机器人有限公司 一种介入机器人系统和可读存储介质
US11701191B1 (en) 2022-04-24 2023-07-18 Shenzhen Institute Of Advanced Biomedical Robot Co., Ltd. Interventional robot system, and control method and readable-storage medium thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110001813A1 (en) 2009-07-03 2011-01-06 Electronics And Telecommunications Research Institute Gesture recognition apparatus, robot system including the same and gesture recognition method using the same
US8232072B2 (en) 2008-06-13 2012-07-31 Nabi Biopharmaceuticals Smoking cessation kit and method
US8332072B1 (en) 2008-08-22 2012-12-11 Titan Medical Inc. Robotic hand controller

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100013765A1 (en) * 2008-07-18 2010-01-21 Wei Gu Methods for controlling computers and devices
US8935003B2 (en) * 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
US9931154B2 (en) * 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8232072B2 (en) 2008-06-13 2012-07-31 Nabi Biopharmaceuticals Smoking cessation kit and method
US8332072B1 (en) 2008-08-22 2012-12-11 Titan Medical Inc. Robotic hand controller
US20110001813A1 (en) 2009-07-03 2011-01-06 Electronics And Telecommunications Research Institute Gesture recognition apparatus, robot system including the same and gesture recognition method using the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017008358B3 (de) 2016-06-17 2022-08-11 Intel Corporation Visionsbasiertes Robotersteuerungssystem
US10702987B2 (en) 2016-09-13 2020-07-07 Fanuc Corporation Robot system having teach pendant communicating with robot controller
DE102017120614B4 (de) * 2016-09-13 2020-10-15 Fanuc Corporation Robotersystem mit einem Programmierhandgerät, das mit einer Robotersteuerung kommuniziert
DE102016221861A1 (de) 2016-11-08 2018-05-09 Volkswagen Aktiengesellschaft Einrichtung und Verfahren zur Einwirkung auf Gegenstände
DE102016221861B4 (de) 2016-11-08 2022-05-05 Volkswagen Aktiengesellschaft Einrichtung und Verfahren zur Einwirkung auf Gegenstände
DE102017007908A1 (de) * 2017-08-21 2019-02-21 Hochschule Bochum Verfahren zur Steuerung der Bewegung eines mobilen Roboters
DE102021119646A1 (de) 2021-07-28 2023-02-02 Karl Storz Se & Co. Kg Eingabeeinheit für ein medizinisches Instrument sowie medizinisches System mit einer Eingabeeinheit
DE102021119646B4 (de) 2021-07-28 2023-07-20 Karl Storz Se & Co. Kg Eingabeeinheit für ein medizinisches Instrument sowie medizinisches System mit einer Eingabeeinheit

Also Published As

Publication number Publication date
DE102013108114B4 (de) 2015-02-12
WO2015014668A1 (de) 2015-02-05

Similar Documents

Publication Publication Date Title
DE102013108114B4 (de) Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung
DE102013110847B3 (de) Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
DE102012110190A1 (de) Manuell betätigte Robotersteuerung und Verfahren zum Steuern eines Robotersystems
DE102015200428B3 (de) Verfahren zur Ausrichtung eines mehrachsigen Manipulators mit einem Eingabegerät
EP2987592B1 (de) Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter
EP2449997B1 (de) Medizinischer Arbeitsplatz
DE102014223701B4 (de) Vorgebbare Beweglichkeit für ein robotisches Gerät
EP2328501B1 (de) Medizinischer arbeitsplatz und bedienvorrichtung zum manuellen bewegen eines roboterarms eines medizinischen arbeitsplatzes
DE102012212754B4 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE102013100605A1 (de) Robotersystem und Verfahren zum Steuern eines Robotersystems für die minimal invasive Chirurgie
EP3305232B1 (de) Bedienvorrichtung und bedienverfahren zum bedienen eines medizinischen geräts
EP3217909A1 (de) Intelligenter haltearm für die kopfchirurgie mit berührungsempfindlicher bedienung
DE102015104810A1 (de) Verfahren und Vorrichtung zum Steuern eines chirurgischen mechatronischen Assistenzsystems mittels eines Haltearms für medizinische Zwecke
DE102013004692B4 (de) 3D-Eingabegerät mit einem zusätzlichen Drehregler
DE102011075467A1 (de) Vorrichtung zum bedienen einer automatisierten maschine zur handhabung, montage oder bearbeitung von werkstücken
WO2016120110A1 (de) Teleoperationssystem mit intrinsischem haptischen feedback durch dynamische kennlinienanpassung für greifkraft und endeffektorkoordinaten
WO2016146768A1 (de) Robotersystem und verfahren zum betrieb eines teleoperativen prozesses
EP2000872A2 (de) Industrieroboter und Verfahren zum Programmieren eines Industrieroboters
DE102010019640A1 (de) Handgerät und Verfahren zum Steuern und/oder Programmieren eines Manipulators
EP3434830B1 (de) Bedieneinrichtung für eine arbeitsmaschine
DE102018125592A1 (de) Steuerungsanordnung, Verfahren zur Steuerung einer Bewegung eines Roboterarms und Behandlungsvorrichtung mit Steuerungsanordnung
DE102016107853A1 (de) Operations-Assistenz-System und Verfahren zur Erzeugung von Steuersignalen zur Ansteuerung einer motorisch gesteuerten bewegbaren Roboterkinematik eines derartigen Operations-Assistenz-Systems
DE102014019752A1 (de) Haltearm für medizinische Zwecke mit zwei mechatronischen Schnittstellen
DE102007026282A1 (de) Verfahren zur Steuerung einer Vorrichtung sowie entsprechend ausgestaltetes Bedienelement und Steuervorrichtung
DE102013104429A1 (de) Vorrichtungen zum Steuern einer medizinischen Vorrichtung mittels Gesten und Verfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: ABB SCHWEIZ AG, CH

Free format text: FORMER OWNER: RG MECHATRONICS GMBH, 82229 SEEFELD, DE

R082 Change of representative

Representative=s name: KEILITZ & SOELLNER, PARTNERSCHAFT, DE

Representative=s name: PATENTANWAELTE KEILITZ & PARTNER, PARTNERSCHAF, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: KEILITZ HAINES & PARTNER PATENTANWAELTE PARTGM, DE

Representative=s name: PATENTANWAELTE KEILITZ & PARTNER, PARTNERSCHAF, DE

R081 Change of applicant/patentee

Owner name: ABB SCHWEIZ AG, CH

Free format text: FORMER OWNER: GOMTEC GMBH, 82229 SEEFELD, DE

R082 Change of representative

Representative=s name: KEILITZ HAINES & PARTNER PATENTANWAELTE PARTGM, DE

Representative=s name: PATENTANWAELTE KEILITZ & PARTNER, PARTNERSCHAF, DE