DE102013110847B3 - Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung - Google Patents

Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung Download PDF

Info

Publication number
DE102013110847B3
DE102013110847B3 DE102013110847.4A DE102013110847A DE102013110847B3 DE 102013110847 B3 DE102013110847 B3 DE 102013110847B3 DE 102013110847 A DE102013110847 A DE 102013110847A DE 102013110847 B3 DE102013110847 B3 DE 102013110847B3
Authority
DE
Germany
Prior art keywords
hand
end effector
control device
orientation
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013110847.4A
Other languages
English (en)
Inventor
Bernd Gombert
Leopold Krausen
Richard Roberts
András Ascai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
Gomtec GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gomtec GmbH filed Critical Gomtec GmbH
Priority to DE102013110847.4A priority Critical patent/DE102013110847B3/de
Priority to US15/025,899 priority patent/US9901411B2/en
Priority to CN201480054314.8A priority patent/CN105636542B/zh
Priority to KR1020167011607A priority patent/KR101797169B1/ko
Priority to JP2016519940A priority patent/JP6284284B2/ja
Priority to PCT/EP2014/069284 priority patent/WO2015049095A1/de
Application granted granted Critical
Publication of DE102013110847B3 publication Critical patent/DE102013110847B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35444Gesture interface, controlled machine observes operator, executes commands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36184Record actions of human expert, teach by showing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45123Electrogoniometer, neuronavigator, medical robot used by surgeon to operate

Abstract

Die Erfindung betrifft eine Steuervorrichtung (25, 28, 29) zum Steuern eines Robotersystems (11) mit wenigstens einem Roboterarm (14, 18), an dem ein chirurgisches Instrument (15, 19) befestigt ist, das einen Endeffektor (17, 21) aufweist, wobei die Steuervorrichtung (25, 28, 29) ein Bilderfassungssystem (25, 28) umfasst, das die Steuervorgabe wenigstens einer Hand (30L, 30R) aufzeichnet, auswertet und in entsprechende Steuerbefehle für eine oder mehrere Komponenten des Robotersystems (11) umsetzt. Um die Steuerung des Robotersystems (11) zu vereinfachen und insbesondere intuitiv zu gestalten, wird vorgeschlagen, eine Steuereinheit (25) vorzusehen, die die Orientierung und/oder die Position und/oder den Öffnungsgrad des Endeffektors (15, 19) eines chirurgischen Instruments (15, 19) als erste Größe bzw. erste Größen ermittelt, und ferner die Orientierung und/oder die Position und/oder den Öffnungsgrad wenigstens einer Hand (30L, 30R) als zweite Größe bzw. zweite Größen ermittelt und im Falle einer Abweichung einer oder mehrerer der ersten Größen von der jeweils entsprechenden zweiten Größe eine manuelle Steuerung des Endeffektors (17, 21) unterbindet, und im Falle einer Übereinstimmung einer oder mehrerer der ersten Größen mit der jeweils entsprechenden zweiten Größe eine Gestensteuerung freigibt, so dass das chirurgische Instrument (15, 19) von Hand betätigt werden kann.

Description

  • Die Erfindung betrifft eine Steuervorrichtung zum Steuern eines Robotersystems mit wenigstens einem Roboterarm, an dem ein chirurgisches Instrument mit einem Endeffektor befestigt ist, sowie ein Verfahren zum Steuern eines solchen Robotersystems mittels Gestensteuerung.
  • Chirurgische Eingriffe am menschlichen Körper werden heute in zunehmendem Maße in minimal invasiven Verfahren mit Unterstützung von Chirurgie-Robotern durchgeführt. Je nach Art des Eingriffs können die Chirurgie-Roboter mit verschiedenen chirurgischen Instrumenten, wie z. B. Endoskopen, Schneid-, Greif- oder Nähinstrumenten bestückt sein. Bei einer Operation werden die Instrumente mittels eines oder mehrerer Roboter über eine Schleuse in den Körper des Patienten eingeführt. Während der Operation wird das chirurgische Instrument dann von einem Chirurgen über eine Eingabevorrichtung des Robotersystems, wie z. B. ein Bildverarbeitungssystem zur Gestensteuerung, gesteuert.
  • Für den chirurgischen Einsatz werden verschiedenste Instrumente verwendet, wie z. B. Endoskope, laparoskopische Instrumente, Schneid-, Greif-, Halte-, Verbinde- oder Nähinstrumente sowie andere chirurgische Werkzeuge. Am distalen Ende der chirurgischen Instrumente bzw. Werkzeuge befindet sich der eigentliche Endeffektor, wie z. B. ein Skalpell, eine Schere, eine Nadel, ein Schaber, eine Feile, ein Greifer, eine Kamera, etc.. Die Endeffektoren können z. B. mittels eines Seilantriebs oder mit Hilfe eines im Schaft des Instruments integrierten Manipulators betätigt werden.
  • Bei einem Robotersystem mit einer Eingabevorrichtung zur Gestensteuerung kann der Benutzer das chirurgische Instrument und dessen Endeffektor durch manuelle Steuervorgaben steuern. Die Eingabevorrichtung des Robotersystems umfasst in diesem Fall eine Kamera, die innerhalb eines vorgegebenen Bilderfassungsbereichs die von einem Benutzer ausgeführten Gesten erfasst. Die von der Kamera aufgezeichneten Bilddaten werden von einer Bildverarbeitungseinheit (Software) verarbeitet und in entsprechende Steuerbefehle für die gesteuerten Komponenten des Robotersystems umgesetzt. Bei bekannten Gestensteuerungen kann der Benutzer in der Regel dynamische Gesten, wie z. B. Bewegungen, oder statische Gesten, wie z. B. Handzeichen, vorgeben, um eine bestimmte Komponente des Robotersystems zu steuern. Die gesteuerte Komponente wird dem Benutzer in der Regel auf einem Bildschirm angezeigt, so dass er die Reaktion des Robotersystems auf seine Steuervorgaben beobachten kann.
  • Aus der US 6 424 885 B1 ist ein Robotersystem für die minimal invasive Chirurgie bekannt, das mehrere manuelle Eingabegeräte umfasst, mit denen die chirurgischen Instrumente gesteuert werden. In Zusammenhang mit der Steuerung stellt sich das Problem, dass die Orientierung des Eingabegeräts mit der Orientierung eines Endeffektors eines chirurgischen Instruments in Übereinstimmung gebracht werden soll. Hierzu wird in der US 6,424,885 A ein Verfahren angewendet, das „mapping” genannt wird. Wie in 1 gezeigt ist, umfasst das Eingabegerät 1 zwei an einem Grundkörper 2 gelenkig befestigte Glieder 4, 5, die mit Hilfe der Finger einer Hand zusammengedrückt bzw. geöffnet werden können. Bei einer manuellen Betätigung der Glieder 4, 5 werden die Arbeitselemente 9, 10 des gesteuerten Endeffektors 6, der auf der rechten Seite dargestellt ist, entsprechend bewegt. Die Position des Eingabegeräts 1 wird durch einen Punkt P1 bestimmt. Die Orientierung des Eingabegeräts 1 ist durch eine Längsachse 3 bestimmt, die durch den Punkt P1 und den Grundkörper 2 zwischen den beiden Gliedern 4 und 5 verläuft. Analog dazu ist die Orientierung des Endeffektors 6 durch eine zwischen den Arbeitselementen 9 und 10 verlaufende Achse 8 festgelegt. Mittels des vorstehend genannten „mapping”-Verfahrens können die Orientierung des Eingabegeräts 1 und die Orientierung des Endeffektors in Übereinstimmung gebracht werden, so dass die beiden Achsen 3 und 8 in die gleiche Richtung verlaufen.
  • Das in der US 6 424 885 B1 beschriebene „mapping”-Verfahren ist jedoch nur dazu geeignet, die Orientierung eines Eingabegeräts 1 mit der Orientierung eines Endeffektors abzugleichen. Es ist jedoch nicht geeignet, die Orientierung, Position und/oder den Öffnungsgrad einer Hand mit derjenigen bzw. demjenigen eines Endeffektors abzugleichen.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Robotersystem mit einer Vorrichtung zur Gestensteuerung zu schaffen, bei dem ein Benutzer den Zustand seiner Hand einfach und schnell an den Zustand des gesteuerten Objekts anpassen kann.
  • Gelöst wird diese Aufgabe gemäß der Erfindung durch die in den unabhängigen Patentansprüchen angegebenen Merkmale. Weitere Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Gemäß der Erfindung wird eine Steuervorrichtung zum Steuern eines Robotersystems vorgeschlagen, das ein Bilderfassungssystem zur Gestensteuerung umfasst, welches die Steuervorgabe wenigstens einer Hand aufzeichnet, auswertet und in entsprechende Steuerbefehle für eine oder mehrere Komponenten des Robotersystems umsetzt. Die erfindungsgemäße Steuervorrichtung umfasst eine Steuereinheit, die die Orientierung und/oder die Position und/oder den Öffnungsgrad eines Endeffektors eines chirurgischen Instruments als eine erste Größe bzw. erste Größen, sowie die Orientierung und/oder die Position und/oder den Öffnungsgrad einer Hand als zweite Größe bzw. zweite Größen ermittelt und die im Falle einer Abweichung einer oder mehrerer der ersten Größen von der jeweils entsprechenden zweiten Größe die Gestensteuerung des Endeffektors unterbindet, und die im Falle einer Übereinstimmung wenigstens einer der zweiten Größen mit der jeweils entsprechenden ersten Größe bzw. einer davon abhängigen Sollgröße eine Gestensteuerung des Endeffektors freigibt. Gemäß der Erfindung ist es also erforderlich, die Orientierung, die Position oder den Öffnungsgrad der Hand zunächst an die Orientierung, die Position und/oder den Öffnungsgrad des zu steuernden Instruments bzw. dessen Endeffektor anzupassen – also einen Abgleich durchzuführen. Nach einem solchen Abgleich lassen sich das chirurgische Instrument bzw. dessen Endeffektor dann manuell steuern.
  • Die Aktivierung der Gestensteuerung kann automatisch erfolgen. Sie kann aber auch aktiv geschaltet werden, wenn eine zusätzliche Bedingung erfüllt ist, wie z. B. dass der Benutzer die Gestensteuerung nochmals bestätigt. In diesem Fall wäre die Gestensteuerung erst dann möglich, wenn ein Abgleich zwischen Hand und Endeffektor sowie eine zusätzliche Bestätigung durch den Benutzer stattgefunden hat.
  • Gemäß einer bevorzugten Ausführungsform der Erfindung ist die Vorrichtung zur Gestensteuerung derart eingerichtet, dass zumindest zwei der Zustände: Orientierung, Position und Öffnungsgrad der steuernden Hand mit dem entsprechenden Zustand des Endeffektors übereinstimmen müssen, um die Gestensteuerung zu aktivieren.
  • Um den Benutzer zum Durchführen eines Abgleichs aufzufordern, ist die erfindungsgemäße Steuervorrichtung vorzugsweise derart ausgelegt, dass im Falle einer Abweichung wenigstens einer der Hand-Zustände von dem entsprechenden Zustand des Endeffektors ein Signal an den Benutzer ausgegeben wird. Dieses Signal kann beispielsweise ein optisches, akustisches oder haptisches Signal sein. Mit dem Signal wird der Benutzer dazu aufgefordert, die Orientierung und/oder Position und/oder den Öffnungsgrad der Hand an den entsprechenden Zustand des Endeffektors anzupassen.
  • Im Falle einer Übereinstimmung wenigstens eines der Zustände wird vorzugsweise ein Signal an den Benutzer ausgegeben, das dem Benutzer den erfolgreichen Abgleich anzeigt. So kann der Benutzer beispielsweise mittels eines optischen Signals auf den erfolgreichen Abgleich hingewiesen werden.
  • Um den Abgleich zwischen der Hand und dem Endeffektor zu erleichtern, kann z. B. ein virtuelles Element auf einem Bildschirm eingeblendet werden, dessen Orientierung und/oder Position und/oder Öffnungsgrad derjenigen bzw. demjenigen der Hand entspricht. Bei dem virtuellen Element kann es sich beispielsweise um eine Nachbildung des gesteuerten Endeffektors handeln. Im Falle einer Schere kann beispielsweise das Bild einer chirurgischen Schere, oder im Falle eines Skalpells das Bild eines Skalpells dargestellt werden.
  • Darüber hinaus kann ein weiteres Referenzelement angezeigt werden, das die Orientierung und/oder Position und/oder den Öffnungsgrad des gesteuerten Endeffektors darstellt und das dem Benutzer als Soll-Vorgabe für den Abgleich zwischen der Hand und dem Endeffektor dient. Der Benutzer kann somit einfach und intuitiv die Orientierung und/oder Position und/oder den Öffnungsgrad der Hand an die Soll-Vorgabe des Referenzelements anpassen. Den Abgleichungsprozess kann er dabei am Bildschirm verfolgen.
  • Zur Bestimmung der Orientierung, der Position oder des Öffnungsgrades einer Hand gibt es prinzipiell mehrere Möglichkeiten. Gemäß einer Ausführungsform der Erfindung kann die Position einer Hand beispielsweise ermittelt werden, indem auf der Hand oder dem zugehörigen Arm ein charakteristischer Punkt durch das Bilderfassungssystem erkannt und dieser Punkt als Referenzpunkt für die Position der Hand festgelegt wird. Das Bilderfassungssystem kann z. B. einen Handgelenkspunkt, einen Punkt auf der Fingerspitze, oder einen Punkt an einem Knöchel als Referenzpunkt ermitteln. Die Position dieses Punktes wird von der Steuereinheit vorzugsweise im Koordinatensystem des Bilderfassungssystems ermittelt.
  • Die Orientierung der Hand kann beispielsweise durch einen Vektor festgelegt werden, dessen Richtung im Koordinatensystem des Bilderfassungssystems ermittelt wird. Der Vektor kann z. B. auf einer Linie zwischen dem Handgelenk und der Fingerspitze des Zeigefingers, oder zwischen dem Handgelenk und der Spitze des Daumens liegen. Er könnte z. B. aber auch auf einer Linie liegen, die zwischen Daumen und Zeigefinger in Richtung des Handgelenks verläuft. Prinzipiell können beliebige Vektoren ermittelt werden, welche dann als Referenz für die Orientierung der Hand festgelegt werden. Die Erkennung des Orientierungsvektors bzw. der zugehörigen Linie erfolgt vorzugsweise automatisch durch das Bilderfassungssystem. Die Orientierung der Hand wird vorzugsweise im Koordinatensystem des Bilderfassungssystems bestimmt.
  • Der Öffnungsgrad der Hand kann beispielsweise ermittelt werden, indem zwei Vektoren festgelegt und der Winkel zwischen den Vektoren im Koordinatensystem des Bilderfassungssystems bestimmt wird. Ein erster Vektor kann beispielsweise von einem Punkt am Handgelenk in Richtung des Daumens, und ein zweiter Vektor von dem Punkt am Handgelenk in Richtung der Zeigefingerspitze zeigen. Die Vektoren bzw. die zugehörigen Linien können automatisch durch das Bilderfassungssystem ermittelt werden.
  • Die erfindungsgemäße Steuervorrichtung für das Robotersystem kann ferner ein handbetätigtes Hilfselement umfassen, das dazu dient, die Handbewegung des Benutzers zu führen. Gemäß einer bevorzugten Ausführungsform der Erfindung hat das Hilfselement gleich viele Bewegungs-Freiheitsgrade wie der gesteuerte Endeffektor des chirurgischen Instruments. Im Falle eines Greifers, bei dem sich zwei gegenüberliegend angeordnete Greifbacken um eine Achse aufeinander zu bzw. voneinander weg bewegen können, hat das Hilfselement vorzugsweise genau einen Freiheitsgrad. Es kann aber auch mehr oder weniger Freiheitsgrade aufweisen.
  • Die Form des handbetätigten Hilfselements entspricht vorzugsweise der Form des gesteuerten Endeffektors. Im Falle einer chirurgischen Schere oder eines Greifers kann das Hilfselement beispielsweise zwei Schenkel aufweisen, die über ein Gelenk miteinander verbunden sind und somit auf und zu bewegt werden können.
  • Gemäß einer Ausführungsform der Erfindung kann beispielsweise die Orientierung, die Position und/oder der Öffnungsgrad des Hilfselements durch das Bilderfassungssystem erfasst werden. Die so gewonnenen Informationen können dann als Referenzgrößen für die Orientierung, Position und/oder den Öffnungsgrad der Hand genutzt werden. Da das handbetätigte Hilfselement klar definierte Elemente aufweist, kann die Orientierung, die Position und/oder der Öffnungsgrad des Hilfselements und damit auch der Hand besonders einfach und genau bestimmt werden. Dieses Verfahren bietet somit Vorteile einer Erfassung von Punkten auf der Hand. Auf dem Hilfselement können gegebenenfalls Markierungen vorgesehen sein, um die Erkennung weiter zu vereinfachen.
  • Erfindungsgemäß können durch die Steuerung soviele Punkte auf der Hand oder dem Hilfselement festgelegt werden, wie zur Bestimmung der Orientierung, der Position und des Öffnungsgrades der Hände benötigt werden. Werden für die Gestensteuerung Hilfselemente genutzt, so können auch Punkte auf den Hilfselementen festgelegt werden. Beispielsweise können weitere Punkte bestimmt werden, die auf den Fingerspitzen oder den Gliedenden der Hilfselemente liegen.
  • Diese Punkte können dann auch genutzt werden, einen Vektor festzulegen. Beispielsweise kann der Vektor so definiert werden, dass er durch zwei Punkte durchlaufen muss. Alternativ können drei Punkte auf einer Hand und/oder auf dem Hilfselement genutzt werden, um eine virtuelle Ebene aufzuspannen, auf welcher der Vektor liegen muss.
  • Ferner können die auf den Spitzen bzw. auf den Gliedenden des Hilfselements befindlichen Punkte genutzt werden, um den Öffnungsgrad der Hände zu bestimmen, indem der Abstand zwischen den Fingerspitzen ermittelt wird. Je größer der Abstand zwischen zwei Punkten ist, desto größer ist der Öffnungsgrad der Finger.
  • Wahlweise oder zusätzlich kann das handbetätigte Mittel auch einen Sensor, insbesondere einen Inertialsensor umfassen, der z. B. die Lage im Raum und/oder eine Bewegung in bzw. um drei Raumachsen messen kann. Die Sensordaten können beispielsweise berührungslos an eine Steuereinheit übertragen werden. Die vom Sensor gelieferten Daten können wiederum dazu genutzt werden, die Orientierung, Position und/oder den Öffnungsgrad der Hand zu bestimmen.
  • Gemäß einer bevorzugten Ausführungsform der Erfindung werden die Orientierung, die Position und/oder der Öffnungsgrad der Hand durch wenigstens zwei der vorstehend genannten Methoden redundant ermittelt, d. h. durch optische Erkennung der Hand, optische Erkennung des Hilfselements und/oder mit Hilfe eines im Hilfselement integrierten Sensors. Dadurch kann die Fehleranfälligkeit der Gestensteuerung deutlich reduziert und die Zuverlässigkeit des Systems verbessert werden.
  • Eine Steuervergabe der Hand wird vorzugsweise mit einem vorgegebenen Skalierungsfaktor in eine entsprechende Bewegung des Endeffektors umgesetzt. Bei einem Skalierungsfaktor von eins bewegt sich der Endeffektor im selben Maßstab wie die Hand. Der Skalierungsfaktor kann aber auch größer oder kleiner eingestellt werden. So kann beispielsweise eine Handbewegung eine um den Faktor 2 reduzierte Bewegung des Endeffektors bewirken; d. h., dass eine Reduzierung des Öffnungsgrades der Finger um 20° eine Reduzierung des Öffnungswinkels der Arbeitsglieder um 10° bewirken würde. Für unterschiedliche Bewegungsarten oder Freiheitsgrade können auch unterschiedliche Skalierungsfaktoren definiert werden. z. B. könnte für jede Bewegung entlang und/oder um die Achsen x, y, z ein separater Skalierungsfaktor für die Handbewegungen sowie für das Verhältnis Öffnungswinkel und Öffnungsgrad gewählt werden. Auch bezüglich der Umsetzung der Strecke, der Geschwindigkeit und der Beschleunigung können jeweils unterschiedliche Skalierungsfaktoren definiert werden. Die Skalierungsfaktoren sind also erfindungsgemäß beliebig einstellbar. Sie können daher auch in Abhängigkeit vom Ort, an dem sich der Endeffektor befindet, variieren.
  • Wie eingangs erwähnt wurde, umfasst die Gestensteuerung ein Bilderfassungssystem, das die vom Benutzer ausgeführten manuellen Gesten aufzeichnet und auswertet. Die Steuerung des chirurgischen Instruments bzw. des Endeffektors ist vorzugsweise aktiv, solange sich die steuernde Hand innerhalb eines vorgegebenen Bilderfassungsbereichs befindet. Verlässt die Hand den Bilderfassungsbereich, wird die Steuerung vorzugsweise deaktiviert.
  • Die erfindungsgemäße Steuervorrichtung umfasst auch eine Kamera, die das gesteuerte Objekt aufzeichnet, und einen Bildschirm, auf dem das aufgezeichnete Bild dargestellt wird. Gemäß einer bevorzugten Ausführungsform der Erfindung wird das gesteuerte Objekt am Bildschirm so dargestellt, dass die Bewegung des Objekts am Bildschirm mit der entsprechenden Bewegung der Hand übereinstimmt. Das am Bildschirm abgebildete Objekt bewegt sich also in Bezug auf ein Koordinatensystem der Bildschirmanzeige in dieselbe Richtung wie die Bewegung der Hand in Bezug auf das Koordinatensystem des Bilderfassungssystems. Bewegt der Benutzer seine Hand beispielsweise nach oben (in z-Richtung des Koordinatensystems des Bilderfassungssystems), so bewegt sich das auf dem Bildschirm dargestellte Bild des Endeffektors ebenfalls nach oben (in z-Richtung des Koordinatensystems der Bildschirmanzeige). Die reale Bewegung des Endeffektors verläuft dagegen in der Regel in eine andere Richtung. Auf dem Bildschirm wird die Bewegung des Endeffektors jedoch in der derselben Richtung wie die Bewegung der Hand dargestellt. Eine solche Darstellung hat den wesentlichen Vorteil, dass ein Benutzer, wie z. B. ein Chirurg, das Robotersystem sehr einfach und intuitiv steuern kann. Es ist daher keine lange Einarbeitungszeit oder gar ein Umdenken erforderlich.
  • Um diese Art der Darstellung zu realisieren, ist der Kamera, die den Endeffektor aufnimmt, ein Koordinatensystem zugeordnet, das an den Bildachsen des von der Kamera aufgenommenen Bildes ausgerichtet ist. Das Koordinatensystem der Kamera hat in der Regel eine andere Orientierung als das Koordinatensystem des Bilderfassungssystems. Bezüglich der Kamera hat es aber vorzugsweise die gleiche Orientierung wie das Koordinatensystem des Bilderfassungssystems bezüglich des Erfassungsbereichs oder das Koordinatensystem der Bildschirmanzeige bezüglich des Bildschirms.
  • Bei einer Handbewegung innerhalb des Bilderfassungsbereichs wird der Endeffektor vorzugsweise so gesteuert, dass er sich im Koordinatensystem der Kamera in dieselbe Richtung bewegt wie im Koordinatensystem des Bilderfassungssystems. Führt der Benutzer beispielsweise eine Bewegung in z-Richtung im Koordinatensystem des Bilderfassungssystems durch, bewegt sich der Endeffektor ebenfalls in z-Richtung, aber im Koordinatensystem der Kamera. Die z-Koordinate der Kamera wird wiederum als z-Koordinate im Koordinatensystem des Bildschirms dargestellt. Entsprechendes gilt analog auch für die anderen Koordinaten. Die erfindungsgemäße Steuereinheit ist also so ausgelegt, dass eine Steuervorgabe einer Hand im Koordinatensystem des Bilderfassungssystems in eine entsprechende Aktion des Endeffektors im Koordinatensystem der Kamera umgesetzt wird.
  • Die Orientierung, die Position und/oder der Öffnungsgrad des Endeffektors sind bekannte Größen, da das Robotersystem üblicherweise eine Vielzahl von Sensoren aufweist, mit denen die genannten Größen gemessen werden können. Zur Erkennung der Orientierung, der Position und/oder des Öffnungsgrades des Endeffektors können somit die im System vorhandenen Informationen genutzt werden. Da die Steuereinheit die Steuerbefehle für den Endeffektor generiert, sind somit auch der Steuereinheit die genannten Größen bekannt.
  • Der Steuereinheit sind zudem alle Koordinatensysteme bekannt, so dass mittels einer Koordinatentransformation eine Größe von einem Koordinatensystem in eine entsprechende Größe des anderen Koordinatensystems umgerechnet werden kann. Somit können die Endeffektoren stets im Kamerakoordinatensystem betätigt werden, unabhängig davon, wie das Kamerakoordinatensystem zu einem anderen Koordinatensystem ausgerichtet ist.
  • Alternativ könnte die Orientierung, Position und/oder der Öffnungsgrad des Endeffektors aber auch aus den von einer Kamera aufgezeichneten Bilddaten gewonnen werden, analog zur Bilderfassung der Hand oder des Hilfselements.
  • Die Erfindung betrifft auch ein Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung. Gemäß der Erfindung werden die Orientierung und/oder die Position und/oder der Öffnungsgrad eines Endeffektors eines chirurgischen Instruments als eine erste Größe bzw. als erste Größen sowie die Orientierung und/oder die Position und/oder der Öffnungsgrad wenigstens einer Hand eine zweite Größe bzw. zweite Größen ermittelt. Im Falle einer Abweichung einer oder mehrerer der ersten Größen von der jeweils entsprechenden zweiten Größe wird eine manuelle Steuerung des Endeffektors automatisch unterbunden. Sobald eine oder mehrere der korrespondierenden Größen übereinstimmen, wird die Gestensteuerung vorzugsweise automatisch freigegeben. Im letzteren Fall war der Abgleich zwischen Hand und dem gesteuerten Endeffektor erfolgreich – d. h. die Orientierung, die Position und/oder der Öffnungsgrad von Hand und Endeffektor stimmen überein. Nach dem Abgleich kann der Endeffektor durch Gestensteuerung gesteuert werden. Es kann aber auch vorgesehen sein, dass der Benutzer die Gestensteuerung nochmals bestätigen muss, um sie vollständig zu aktivieren.
  • Kurze Beschreibung der Zeichnungen
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 eine Darstellung eines aus dem Stand der Technik bekannten Eingabegeräts und einen damit gesteuerten Endeffektor;
  • 2 eine perspektivische Ansicht eines Robotersystems für die minimal invasive Chirurgie mit zwei Roboterarmen und einer Steuervorrichtung zur Durchführung einer Gestensteuerung;
  • 3 eine Seitenansicht mehrerer chirurgischer Instrumente, die in den Körper eines Patienten eingeführt sind;
  • 4 eine Darstellung zweier Hände und verschiedener Bezugspunkte und – Linien zur Bestimmung der Orientierung, der Position und des Öffnungswinkels der Hände;
  • 5 eine Darstellung zweier Hände ähnlich 4, wobei jede Hand ein Hilfselement zur Führung der Handbewegungen hält;
  • 6 einen Bildschirm, an dem die mittels Gestensteuerung gesteuerten Endeffektoren sowie zwei virtuelle Endeffektoren dargestellt sind; und
  • 7 eine schematische Darstellung verschiedener Verfahrensschritte eines Verfahrens zum Steuern eines Robotersystems mittels Gestensteuerung.
  • Bezüglich der Erläuterung von 1 wird auf die Beschreibungseinleitung verwiesen.
  • 2 zeigt eine schematische Darstellung eines Robotersystems 11 für die minimal invasive Chirurgie mit zwei Roboterarmen 14, 18 und einer Steuervorrichtung 25, 28, 29 zum Steuern der verschiedenen Komponenten des Robotersystems 11 mittels Gestensteuerung. Die Roboterarme 14, 18 sind hier über eine Schiene 24 an einem OP-Tisch 12 befestigt. Die Roboterarme 14, 18 können dabei gleichartig oder unterschiedlich aufgebaut sein. Auf dem OP-Tisch 12 liegt ein Patient 13, an dem ein chirurgischer Eingriff vorgenommen werden soll.
  • Die Roboterarme 14 und 18 sind jeweils mit einem chirurgischen Instrument 15 bzw. 19 bestückt. Chirurgische Instrumente können prinzipiell alle Instrumente sein, die für einen chirurgischen Eingriff geeignet sind, wie z. B. ein Skalpell, ein Greifer, eine Schere, elektrochirurgische Instrumente, Endoskope, eine Kamera, Stapler, usw.. Das Instrument 15 kann beispielsweise als Schere, und das Instrument 19 als Greifer ausgebildet sein. Die Instrumente 15, 19 verfügen typischerweise über einen Schaft 16, 20, an dessen distalem Ende ein der Funktion des Instruments entsprechender Endeffektor 17, 21 angebracht ist (siehe 3).
  • Die Instrumente 15, 19 werden durch die Roboterarme 14 und 18 bewegt und über kleine künstliche Öffnungen in den Körper des Patienten 13 eingeführt. Durch eine Betätigung der Endeffektoren 17 bzw. 21 kann dann der eigentliche chirurgische Eingriff durchgeführt werden.
  • Zur Steuerung der Endeffektoren 17, 21 – hierunter soll im Folgenden die Positionierung und Orientierung im Raum als auch die Betätigung der eigentlichen Arbeitselemente verstanden werden – ist eine Steuervorrichtung mit einem Bildverarbeitungssystem 25, 28 vorgesehen. Das Bilderfassungssystem umfasst eine Kamera 28, die einen kubischen Erfassungsbereich 36 überwacht. Das Bilderfassungssystem ist dabei in der Lage, manuell ausgeführte Gesten zu erkennen und zu interpretieren. Die von der Kamera aufgezeichneten Bilddaten werden an eine Steuereinheit 25 weitergeleitet und von einer darin enthaltenen Auswerteeinheit (Software) ausgewertet. Die Steuereinheit 25 generiert dann entsprechend der erkannten Gesten Steuerbefehle, mit denen die Aktuatoren der gesteuerten Komponenten 14, 15, 17, 18, 19, 21 angesteuert werden. Dabei können die Roboterarme 14, 18, die Instrumente 15, 19 und/oder die Endeffektoren 17, 21 jeweils einzeln oder alle gleichzeitig betätigt werden.
  • Gemäß einem Ausführungsbeispiel kann z. B. mit der linken Hand 30 L des Benutzers der linke Endeffektor 21, und mit der rechten Hand 30 R der rechte Endeffektor 17 betätigt werden. Unter dem Begriff „Betätigung” des Endeffektors wird dabei verstanden, dass der Endeffektor 17, 21 im dreidimensionalen Raum positioniert bzw. orientiert sowie eine bestimmte Funktion, wie z. B. Schneiden, Greifen, oder Koagulieren, ausgeführt werden kann. Die Endeffektoren 17, 21 können wahlweise positions- und/oder geschwindigkeitsgesteuert bzw. -geregelt werden.
  • Die Roboterarme 14 und 18 stehen hier über jeweils ein Kabel 26 bzw. 27 mit der Steuereinheit 25 in Verbindung. Alternativ könnte auch eine drahtlose Steuerung vorgesehen sein.
  • Wie vorstehend erwähnt wurde, steht dem Benutzer ein vorgegebener Erfassungsbereich 36 zur Verfügung, in dem er manuelle Gesten ausführen kann, um das Robotersystem 11 zu steuern. Die Steuervorrichtung 25, 28, 29 ist vorzugsweise so ausgelegt, dass nur Gesten, die innerhalb dieses Bereichs 36 ausgeführt werden, von der Steuereinheit 25 in entsprechende Steuerbefehle umgesetzt werden. Außerhalb des Erfassungsbereichs 36 durchgeführte Gesten werden dagegen nicht in entsprechende Steuerbefehle umgesetzt.
  • Der Erfassungsbereich 36 hat ein erstes Koordinatensystem KG, in dem die Positionen der Hände 30 L, 30 R sowie deren Orientierung im dreidimensionalen Raum eindeutig bestimmbar sind. So kann beispielsweise die Richtung bestimmt werden, in der die Hand 30 L, 30 R oder deren Finger zeigen, sowie die Abstände der Hände 30 L, 30 R oder Finger zueinander. Darüber hinaus kann auch die Bewegung der Hände 30 L, 30 R bzw. deren Finger bestimmt werden, wie z. B. die zurückgelegte Strecke, die Bewegungsgeschwindigkeit und/oder die Bewegungsrichtung.
  • Um die Position einer Hand 30 L, 30 R zu bestimmen, können mit Hilfe des Bilderfassungssystems 25, 28, ein oder mehrere Punkte auf einer Hand 30 L, 30 R und/oder dem zugehörigen Arm erkannt und als Referenzpunkt für die Position der jeweiligen Hand 30 L, 30 R verwendet werden. Wie in 4 gezeigt ist, können beispielsweise die Punkte P1L der linken Hand 30 L und P1R der rechten Hand 30 R, die jeweils auf dem Handgelenk der Hände 30 L, 30 R liegen, bestimmt werden. Die Position der beiden Hände 30 L, 30 R kann somit eindeutig im Koordinatensystem KG beschrieben werden.
  • Darüber hinaus können auch weitere Punkte auf den Händen, wie z. B. die Punkte P2L, P2R und P3L, P3R auf den Fingerspitzen von Daumen und Zeigefinger der linken und rechten Hand 30 L, 30 R als Referenzpunkte definiert werden. Um die Orientierung der Hände 30 L, 30 R zu bestimmen, kann zwischen jeweils zwei Punkten der Hand 30 L bzw. 30 R eine Linie 31, 32, 33 oder 34 gelegt werden. Die Orientierung einer Hand 30 L, 30 R kann z. B. als Vektor definiert werden, der auf einer der genannten Linien 31 bis 34 liegt. Alternativ könnte aber auch ein Vektor V1L, V1R definiert werden, der zwischen den genannten Linien 31 und 32 bzw. 33 und 34 liegt. Ein solcher Vektor könnte in einer Ebene liegen, die durch die Punkte Punkte P1L, P2L und P3L der linken Hand 30 L bzw. durch die drei Punkte P1L, P2R und P3R der rechten Hand 30 R aufgespannt wird. Dieser Vektor V1L, V1R wird dann als Referenz für die Orientierung der Hand 30 L bzw. 30 R herangezogen.
  • Alternativ könnten die Vektoren V1L und V1R aber auch jeden beliebigen anderen Winkel einnehmen und z. B. direkt auf die Fingerspitze des Zeigefingers (Punkt P3L bzw. P3R) zeigen.
  • Der Öffnungsgrad einer Hand 30 L, 30 R zwischen dem Daumen und dem Zeigefinger kann beispielsweise durch den Winkel αL bzw. αR zwischen den Linien 31 und 32 bzw. 33 und 34 definiert werden. Dieser Winkel αR, αL ist abhängig vom Abstand zwischen Daumen und Zeigefinger. Der Öffnungsgrad einer Hand 30 L, 30 R kann aber auch durch den Abstand von zwei Punkten P2L, P2R, P3L, P3R auf der Hand 30 L, 30 R bestimmt werden, z. B. durch den Abstand von der Spitze des Zeigefingers P3L und der Spitze des Daumens P2L.
  • Die Position, Orientierung und der Öffnungsgrad einer Hand 30 L, 30 R sind somit eindeutig im Koordinatensystem KG bestimmbar. Darüber hinaus kann zu jeder Veränderung der Position, Orientierung und des Öffnungsgrades eine zugehörige Geschwindigkeit oder Beschleunigung bestimmt werden.
  • Wie in 4 gezeigt, nehmen die Vektoren V1L bzw. V1R vorteilhafterweise stets den halben Öffnungswinkel αL bzw. αR zwischen den Linien 31 und 32 bzw. 33 und 34 ein.
  • Neben der vorstehend beschriebenen Erkennung von Hand- bzw. Armpunkten gibt es aber noch verschiedene weitere Möglichkeiten zur Bestimmung der Position, der Orientierung oder des Öffnungsgrades einer Hand. Wie in 5 gezeigt ist, kann die Steuervorrichtung 25, 28, 29 des Robotersystems 11 auch handbetätigte Hilfselemente 35 L, 35 R umfassen, die dazu dienen, eine Öffnungs- und Schließbewegung der Hand zwischen Daumen und Zeigefinger zu führen. Im dargestellten Ausführungsbeispiel ist für jede Hand 30 L, 30 R ein eigenes Führungselement 35 L, 35 R vorgesehen.
  • Jedes Hilfselement 35 L, 35 R umfasst zwei gelenkig miteinander verbundene Glieder, die in ihrer Form und Anordnung einem Greifer oder einer chirurgischen Schere entsprechen. Die Hilfselemente 35 L, 35 R haben jeweils genau einen Freiheitsgrad, d. h. es ist nur das aufeinander zu- bzw. auseinander Bewegen von Daumenspitze und Zeigefingerspitze um eine definierte Achse 37 möglich. Durch diese Limitierung der Bewegungsfreiheit von Daumen und Zeigefinger können daher Fehlinterpretationen bei der Gestenerkennung ausgeschlossen werden, da sich die Fingerspitzen nur entlang einer fest definierten Bahn bewegen können. Die beweglichen Glieder der Hilfselemente 35 L, 35 R können beispielsweise Schlaufen 36 L, 36 R aufweisen, in die der Benutzer seinen Daumen bzw. Zeigefinger stecken kann.
  • In analoger Weise zur Bestimmung markanter Punkte auf den Händen 30 L, 30 R können auch Punkte auf den Hilfselementen 35 L, 35 R ermittelt und daraus die Position, Orientierung und/oder der Öffnungsgrad der zugehörigen Hand 30 L bzw. 30 R bestimmt werden. Anstelle der Handgelenkspunkte P1L bzw. P1R könnten z. B. die Gelenks-Punkte 37 L bzw. 37 R des Hilfselements verwendet werden, die in 5 dargestellt sind. Anstelle der Vektoren V1L und V1R könnten z. B. die Gelenks-Achsen verwendet werden, die durch die Punkte 37 L bzw. 37 R verlaufen. Als Referenz für den Öffnungsgrad der Hand könnte z. B. der Winkel zwischen den gelenkig miteinander verbundenen Gliedern eines Hilfselements 35 L bzw. 35 R oder der Abstand zwischen den beiden Gliedenden (analog zu den Fingerspitzen) herangezogen werden.
  • Alternativ oder zusätzlich könnten die Hilfselemente 35 L und 35 R jeweils mit einer Sensorik 38 L und 38 R ausgerüstet sein. Diese Sensorik kann ebenfalls zur Bestimmung der Position, der Orientierung und/oder des Öffnungsgrades der Hand genutzt werden. Wenn z. B. ein Winkelsensor vorgesehen ist, der den Winkel der beiden gelenkig miteinander verbundenen Glieder misst, kann der Öffnungsgrad der Hand 30 L bzw. 30 R zwischen Daumen und Zeigefinger ermittelt werden. Darüber hinaus könnten auch magnetische Sensoren, Beschleunigungs- oder Inertialsensoren integriert sein, mit denen die Position, die Orientierung, aber auch einen Bewegungsgeschwindigkeit oder Beschleunigung der Hand 30 L bzw. 30 R erfasst werden können. Die Sensordaten können z. B. berührungslos an die Steuereinheit 25 übertragen werden. Redundante Informationen können miteinander verglichen werden, um mögliche Fehler zu detektieren oder zu beheben. Eine fehlende oder fehlerhafte Information kann z. B. auch durch eine redundant vorliegende Information ersetzt werden.
  • Bei einer minimal invasiven Operation wird der Ort, an dem der Eingriff stattfindet, durch eine oder mehrere Kameras 22, 23 überwacht. Hierzu sind ein oder mehrere laparoskopische Instrumente durch kleine künstliche Öffnungen in den Körper des Patienten 13 eingeführt, wie auch in 3 dargestellt ist. Das Bild der Kamera 23 wird auf einem Bildschirm 29 dargestellt, auf dem der Chirurg den Fortgang der Operation beobachten und überwachen kann. Darüber hinaus ist im Robotersystem 11 von 2 eine weitere Kamera 22 vorgesehen, die das Geschehen außerhalb des Körpers des Patienten 13 aufzeichnet. Diese Kamera 22 kann beispielsweise dazu verwendet werden, die Position und Orientierung der Roboterarme 14, 18 sowie der Instrumente 15 und 19 als auch der Kamera 23 zu erfassen. Das Bild der Kamera 22 und der Kamera 28 kann ebenso am Bildschirm 29 dargestellt werden. Zwischen den Kameras 22 und 23 kann auch automatisch oder manuell hin- und her geschaltet werden, je nachdem ob sich ein Endeffektor innerhalb oder außerhalb des Patienten befindet. Optional kann das Bild am Bildschirm 29 geteilt werden, um einen von der Kamera 22 erfassten Endeffektor und einen von der Kamera 23 erfassten Endeffektor anzuzeigen.
  • Vorzugsweise sind alle Kameras und/oder Bildschirme 3D-fähig. Hierzu können aus dem Stand der Technik bekannte Geräte verwendet werden, z. B. Stereoskopische Kameras oder Kameras mit zweifacher Bildaufzeichnung.
  • Um dem Chirurgen eine möglichst intuitive Steuerung der chirurgischen Instrumente 15, 19 einschließlich ihrer Endeffektoren 17, 21 zu ermöglichen, sollte wenigstens die Orientierung, vorzugsweise aber auch die Position und der Öffnungsgrad der steuernden Hand 30 L bzw. 30 R in Bezug zum Koordinatensystem KG mit der Orientierung, der Position bzw. dem Öffnungsgrad des gesteuerten Endeffektors 17 bzw. 21 in Bezug zum jeweiligen Kamerakoordinatensystem KK1 bzw. KK2 übereinstimmen. Bei dem hier dargestellten Robotersystem 11 wird zu diesem Zweck ein Abgleichprozess durchgeführt, in dem der Benutzer die Orientierung und/oder die Position und/oder den Öffnungsgrad seiner Hand an den entsprechenden Zustand des gesteuerten Endeffektors 17 bzw. 21 anpassen kann.
  • Sobald eine Übereinstimmung wenigstens einer der genannten Zustandsgrößen, vorzugsweise aller Zustandsgrößen, erreicht wurde, wird der gesteuerte Endeffektor 17, 21 freigegeben bzw. aktiviert und kann danach von Hand gesteuert werden. Die Aktivierung kann automatisch erfolgen oder nochmals eine zusätzliche Bestätigung des Benutzers erfordern.
  • Um dem Benutzer den Abgleich zwischen seiner Hand 30 L, 30 R und dem gesteuerten Endeffektor 17, 21 zu erleichtern, wird in diesem Ausführungsbeispiel auf dem Bildschirm 29 ein virtueller Endeffektor 17' eingeblendet, dessen Orientierung, Position und Öffnungsgrad der Orientierung, Position und dem Öffnungsgrad der steuernden Hand, z. B. 30 R, entspricht. Der virtuelle Endeffektor 17' repräsentiert somit den Zustand der steuernden Hand, z. B. 30 R. Darüber hinaus wird im Fenster 40 ein weiterer Endeffektor 17'' abgebildet, der den Zustand des gesteuerten Endeffektors 17 darstellt. Der erste virtuelle Endeffektor 17' zeigt dem Benutzer somit einen Ist-Zustand seiner Hand 30 R und der weitere Endeffektor 17'' den Soll-Zustand der Hand 30 R an.
  • Wie in 6 gezeigt ist, differieren die Orientierung der Hand 30 R und die Orientierung des Endeffektors 17 um einen Winkel Δω. Um die Orientierung der rechten Hand 30 R in Übereinstimmung mit der Orientierung des Endeffektors 17 zu bringen, muss der Benutzer lediglich die Orientierung seiner Hand verändern. Das Robotersystem 11 kann dem Benutzer auch zusätzlich anzeigen, wie er seine Hand zu bewegen hat, z. B. durch Einblendung von Pfeilen. Wenn die Orientierung der Hand 30 R mit der Orientierung des Endeffektors 17 übereinstimmt, kann ebenfalls eine Rückmeldung an den Benutzer erfolgen, wie z. B. durch Anzeigen eines Symbols am Bildschirm 29 oder durch farbliches Hervorheben des virtuellen Endeffektors 17'. Je nach Auslegung des Robotersystems 11 können für die Übereinstimmung der Orientierung Toleranzen angegeben sein. Eine exakte Übereinstimmung ist nicht unbedingt erforderlich.
  • In analoger Weise kann auch die Orientierung der linken Hand 30 L in Übereinstimmung mit dem linken Endeffektor 21 gebracht werden. Nach dem Abgleich der Orientierung wird die Gestensteuerung der beiden Endeffektoren 17, 21 freigegeben. Zudem kann das Fenster 40 ausgeblendet werden. Als Voraussetzung für eine Aktivierung der Gestensteuerung kann vorgesehen sein, dass neben der Orientierung ein oder mehrere weitere Zustände der Hand 30 R, 30 L mit dem jeweils gesteuerten Endeffektor 17, 21 in Übereinstimmung gebracht werden müssen. So kann beispielsweise vorgesehen sein, dass die Öffnungsgrade αL und αR der beiden Hände 30 L und 30 R in Übereinstimmung mit den Öffnungswinkeln φL und φR der beiden Endeffektoren 17, 21 gebracht werden müssen. Der Abgleich der Öffnungsgrade kann analog zum Abgleich der Orientierung erfolgen, wie vorstehend beschrieben wurde. Demnach wird ermittelt, ob der Öffnungsgrad einer Hand 30 L, 30 R vom Öffnungsgrad des gesteuerten Endeffektors 17, 21 abweicht. Im Falle einer Abweichung kann der Benutzer wiederum aufgefordert werden, den Öffnungsgrad αL, αR seiner Hand 30 L, 30 R zu verändern. Nach erfolgter Anpassung kann die Gestensteuerung wiederum automatisch freigegeben werden. Bei dem Abgleich kann zwischen den Öffnungsgraden αL und αR der beiden Hände 30 L und 30 R und den Öffnungswinkeln φL und φR der beiden Endeffektoren 17, 21 ein Offset definiert werden. Dieser Offset kann z. B. bewirken, dass die Finger nicht ganz geschlossen werden müssen, um einen Endeffektor zu schließen. Dies ist insbesondere dann hilfreich, wenn mit den Händen ein Hilfselement 35 L und 35 R geführt wird, und sich dadurch die Finger nicht vollständig schließen lassen.
  • Voraussetzung für die Aktivierung der Gestensteuerung kann aber auch sein, dass zusätzlich noch die Position P1L bzw. P1R der steuernden Hand 30 L bzw. 30 R in Übereinstimmung mit der Position Q1L bzw. Q1R des gesteuerten Endeffektors 17 bzw. 21 gebracht wird. Das Verfahren zum Abgleich der Position kann wiederum analog zum Abgleich der Orientierung bzw. des Öffnungsgrades erfolgen. Wie in 6 gezeigt ist, ist die Position des Punktes Q1R' des virtuellen Endeffektors 17' gegenüber dem Punkt Q1R des Endeffektors 17 versetzt. Der Versatz kann z. B. durch einen Vektor 39 angezeigt werden. Der Benutzer kann nun die Position seiner Hand verändern, bis sie mit der Position des virtuellen Endeffektors 17'' übereinstimmt. Die Übereinstimmung kann dem Benutzer wiederum angezeigt werden. Nach dem Abgleich stimmt dann die relative Position der Hände 30 L und 30 R sowie der Endeffektoren 17, 21 zueinander. D. h. wenn sich die Fingerspitzen der linken Hand 30 L und der rechten Hand 30 R berühren, so sollten sich auch die Spitzen der Endeffektoren 17, 21 berühren.
  • Um die Steuerung des Robotersystems 11 so einfach wie möglich zu gestalten und insbesondere eine intuitive Steuerung zu ermöglichen, werden die am Bildschirm 29 dargestellten Objekte 17, 21, 17', 17'' vorzugsweise so dargestellt, dass sie einer Handbewegung genau in Richtung der Handbewegung folgen. Bewegt sich eine Hand 30 L, 30 R beispielsweise in x-Richtung im Koordinatensystem KG des Bilderfassungssystems, so bewegt sich das gesteuerte Objekt im Bild, wie z. B. der Endeffektor 17 oder der virtuelle Endeffektor 17', ebenfalls in x-Richtung im Koordinatensystem KB des Bildschirms 29. Entsprechendes gilt für Bewegungen mit einer Komponente in y-Richtung oder z-Richtung. Das Koordinatensystem KB des Bildschirms 29 ist dabei in der gleichen Richtung orientiert wie das Koordinatensystem KG des Bilderfassungssystems 25, 28 (die z-Achse zeigt z. B. nach oben und die x-Achse nach rechts). Eine Handbewegung nach rechts resultiert somit immer auch in einer Bewegung des gesteuerten Objekts 17, 17' am Bildschirm nach rechts, und eine Bewegung nach oben (in z-Richtung), in einer entsprechenden Bewegung des gesteuerten Objekts 17, 17' am Bildschirm nach oben. Die tatsächliche Bewegung des Objekts 17, 21 im Raum unterscheidet sich aber in der Regel von der am Bildschirm 29 angezeigten Bewegung. Um eine solche Darstellung zu realisieren, gibt es grundsätzlich verschiedene Möglichkeiten.
  • Bei dem in den 1 bis 6 dargestellten Robotersystem 11 ist jeder Kamera 22, 23 ein eigenes Koordinatensystem KK1, KK2 zugeordnet. Bei einem Schwenk der Kamera 22 oder 23 schwenkt auch das zugehörige Koordinatensystem KK1 bzw. KK2 mit der Kamera mit. Somit kann die Orientierung eines Kamerakoordinatensystems KK1 bzw. KK2 vorgenommen werden, indem die entsprechende Kamera 22 bzw. 23 verstellt wird. Beispielsweise kann Kamera 23 um ihre Achse 42 gedreht werden. Alternativ kann die Orientierung des Kamerakoordinatensystems KK1 bzw. KK2 vom Benutzer mittels der Steuerung 25 durch eine Koordinatentransformation beliebig angepasst werden, so dass die Kamera nicht zwangsweise verstellt werden muss.
  • Darüber hinaus sollte auch die Ausrichtung der Kamera-Koordinatensysteme KK1 und KK2 jeweils in Bezug auf die jeweilige Kamera 22, 23 identisch sein. Die X-Achse des Koordinatensystems KK1 der Kamera 22 und die x-Achse des Koordinatensystems KK2 der in den Patienten 13 eingeführten Kamera 23 können z. B. jeweils in Aufnahmerichtung der jeweiligen Kamera 22, 23 zeigen. Die Orientierung des Koordinatensystems KB des Bildschirms 29 stimmt ebenfalls mit der Orientierung der Koordintatensysteme KK1, KK2 überein, wobei das Koordinatensystem KB am Bildschirm 29 fix ausgerichtet ist. Beispielsweise zeigt die z-Achse von KB stets vertikal nach oben und die x-Achse normal zur Bildschirmfläche in den Bildschirm 29 hinein. Wenn sich ein von der Kamera 23 aufgenommenes Objekt beispielsweise in z-Richtung im Koordinatensystem KK1 bewegt, bewegt sich das Objekt auch am Bildschirm 29 in z-Richtung im Bildschirm-Koordinatensystem KB. Das Robotersystem 11 erkennt automatisch, wo sich der Endeffektor 17, 21 befindet und steuert diesen entsprechend an. Das für den jeweiligen Endeffektor 17, 21 relevante Koordinatensystem wird vorzugsweise automatisch geändert, wenn der Endeffektor 17, 21 in den Patienten 13 hinein- oder herausgeführt wird.
  • Dem Erfassungsbereich 36 ist das Koordinatensystem KG zugeordnet. Dieses Koordinatensystem kann entsprechend dem Koordinatensystem KB des Bildschirms 29 ausgerichtet sein, muss aber nicht. Vorzugsweise ist jedoch die y-Achse des Koordinatensystems KG im Wesentlichen parallel zu der y-Achse des Koordinatensystems KB des Bildschirms 29 ausgerichtet. Die x-Achse des Koordinatensystems KG ist im Wesentlichen in Bezug zum Benutzer frontal nach vorne gerichtet.
  • Die reale Bewegung eines Endeffektors 17, 21 im Raum stimmt aber in der Regel nicht mit der am Bildschirm 29 angezeigten Bewegungsrichtung und auch nicht mit der Bewegungsrichtung der steuernden Hand 30 L, 30 R im Raum überein. Die Endeffektoren 17, 21 werden nämlich im Kamerakoordinatensystem KK1 bzw. KK2 gesteuert. Je nachdem, wie die Kamera 22 bzw. 23 ausgerichtet ist, ist auch das Kamerakoordinatensystem KK1 bzw. KK2 unterschiedlich im Raum ausgerichtet. D. h. eine Handbewegung in z-Richtung des Koordinatensystems KG bewirkt zwar eine Bewegung des Endeffektors in z-Richtung des jeweiligen Kamerakoordinatensystems KK1 bzw. KK2. Die tatsächliche Bewegung des Endeffektors im Raum hängt dann aber von der Ausrichtung der z-Achse des Kamerakoordinatensystems KK1 bzw. KK2 im Raum ab.
  • Die Position und Ausrichtung (Orientierung der x-, y- und z-Achsen) der Koordinatensysteme KK1 und KK2 sind dem Robotersystem 11 bzw. der Steuereinheit 25 bekannt und können durch eine Koordinatentransformation in ein globales Roboter-Koordinatensystem KR umgerechnet werden. Folglich können sämtliche physikalischen Größen in jedem der Koordinatensysteme KK1, KK2, KB, KG mittels Koordinatentransformation in entsprechende Größen eines anderen Koordinatensystems umgerechnet werden. Somit könnten z. B. die Positionen der Punkte Q1L und Q1R durch Vektoren im globalen Roboter-Koordinatensystem KR beschrieben werden. Ebenso könnten die Positionen der Punkte Q1L und Q1R vom Roboter-Koordinatensystem KR in die Koordinatensysteme KK1 und KK2 der jeweiligen Kameras 22, 23 transformiert werden. Somit kann die Steuerung 25 die Bewegungsgrößen einer Hand 30 L, 30 R, die im Koordinatensystem KG erfasst werden, in Steuergrößen für einen Endeffektor 17, 21 umrechnen, der im jeweiligen Kamera-Koordinatensystem KK1 bzw. KK2 betätigt wird.
  • Die Orientierung, Position und der Öffnungswinkel der Endeffektoren 17, 21 können in analoger Weise zur Hand 30 L, 30 R durch das Bilderfassungssystem 22, 23, 25 ermittelt werden. Der Öffnungswinkel kann beispielsweise durch einen Winkel zwischen den beiden Arbeitselementen festgelegt werden, wie in 3 dargestellt ist. Die Orientierung der Endeffektoren 17, 21 kann durch die Vektoren V2L und V2R festgelegt werden und die Position der Endeffektoren 17 und 21 kann durch die Position der Gelenkpunkte Q1L bzw. Q1R definiert werden. Wenn, wie zuvor definiert wurde, die Handvektoren V1L und V1R jeweils unter dem halben Winkel αL bzw. αR zwischen Daumen und Zeigefinger verlaufen, so wird vorteilhafterweise analog dazu definiert, dass die Endeffektor-Vektoren V2L bzw. V2R unter dem halben Öffnungswinkel φL bzw. φR zwischen den beiden Arbeitselementen des jeweiligen Hilfselementes 25 L bzw. 25 R verlaufen. Die einzelnen Größen können in einem beliebigen Koordinatensystem KK1, KK2, KR beschrieben werden. Auf diese Weise können diversitär redundante Informationen gewonnen werden, die zur Kontrolle miteinander verglichen werden können.
  • Zur Erkennung der Position, der Orientierung und des Öffnungswinkels eines Endeffektors 17, 21 können die im Robotersystem 11 vorhandenen Daten genutzt werden. So kann z. B. die Steuereinheit 25 anhand der Stellung des Roboterarms 14 die Position des Endeffektors 17 bestimmen. Da die Steuereinheit 25 außerdem die Steuerbefehle für die Endeffektoren 17, 21 generiert, sind dieser somit auch die Orientierung und der Öffnungswinkel jedes Endeffektors 17, 21 bekannt.
  • Nach der Aktivierung der Gestensteuerung für einen der Endeffektoren 17, 21 kann der betreffende Endeffektor 17, 21 von Hand betätigt werden. Solange sich die steuernde Hand 30 L, 30 R im Erfassungsbereich 36 befindet, werden die vom Benutzer ausgeführten Steuervorgaben in entsprechende Steuerbefehle umgesetzt. Bewegt sich jedoch die steuernde Hand 30 L bzw. 30 R aus dem Erfassungsbereich 36 heraus, wird die Gestensteuerung vorzugsweise unterbrochen. D. h. der Endeffektor 17, 21 wird gestoppt. Somit kann ausgeschlossen werden, dass der Endeffektor 17, 21 eine nicht gewünschte Aktion ausführt.
  • Der betreffende Endeffektor 17, 21 kann wieder aktiviert werden, nachdem ein neuer Abgleichprozess ausgeführt wurde.
  • 7 zeigt verschiedene Verfahrensschritte eines Verfahrens zum Steuern des Robotersystems 11 der 1 bis 6. In Schritt S1 werden die Hände 30 L, 30 R in den Erfassungsbereich 36 hinein bewegt und in Schritt S2 mittels der Kamera 28 erfasst. In Schritt S3 erfolgt die Bestimmung der Orientierung der Hände, wobei die Vektoren V1L, V1R festgelegt werden. In Schritt S4 wird die Orientierung der Endeffektoren 17, 21 ermittelt, und die Vektoren V2L, V2R werden festgelegt. In Schritt S5 folgt dann ein Soll-Ist-Vergleich der Orientierungen.
  • In Schritt S6 wird die Position der Hände 30 L und 30 R bestimmt, und es werden entsprechende Punkte P1L, P1R festgelegt. Danach folgt in Schritt S7 das Bestimmen der Position der Endeffektoren, wobei die Punkte P2L und P2R festgelegt werden. In Schritt S8 folgt schließlich ein Soll-Istwert-Vergleich der Positionen.
  • Schritt S9 beschreibt das Bestimmen des Öffnungsgrades der Finger, wobei die Winkel αL und αR ermittelt werden. Entsprechend werden dann in Schritt S10 die Öffnungswinkel der Endeffektoren 17, 21 ermittelt. In Schritt S11 folgt schließlich der Soll-Istwert-Vergleich der Öffnungsgrade bzw. Öffnungswinkel.
  • Im Falle einer Abweichung der Orientierungen, der Positionen und/oder der Öffnungsgrade wird in Schritt S12 eine Anweisung an den Benutzer ausgegeben, einen Abgleich durchzuführen. Sobald eine Übereinstimmung zumindest eines Ist-Werts mit dem jeweils zugehörigen Soll-Wert erreicht wurde, wird die Gestensteuerung aktiviert. Das Robotersystem 11 erkennt danach die vom Benutzer ausgeführten manuellen Steuervorgaben und steuert die Endeffektoren 17, 21 entsprechend der Vorgaben.
  • Wenn ein Parameter der Hand 30 L oder 30 R nicht mehr mit dem jeweiligen Parameter des Endeffektors 17, 21 übereinstimmt, wird die Steuerung dieses Endeffektors 17, 21 vorzugsweise deaktiviert (Schritt S15). Eine Deaktivierung des Endeffektors 17, 21 erfolgt vorzugsweise auch, wenn sich die steuernde Hand 30 L, 30 R aus dem Erfassungsbereich 36 heraus bewegt hat.
  • Der Endeffektor 17, 21 kann wieder aktiviert oder betätigt werden, wenn die Prozedur zur Übereinstimmung der jeweiligen Größen erneut durchlaufen wird. Wurde eine Hand aus dem Erkennungsbereich 36 bewegt, so muss sie zuerst wieder in den Erkennungsbereich 36 hinein bewegt werden (siehe Schritt S1). Sofern eine Nicht-Übereinstimmung von zumindest einer Größe der Auslöser der Unterbrechung war, während sich die Hände im Erfassungsbereich 36 befanden, kann unmittelbar mit der erneuten Bestimmung der jeweiligen Größe fortgefahren werden (siehe Schritt S2, S3, S6 und S9).
  • Die in 7 gezeigten Schritte können auf einem Speichermedium in der Steuerung 25 abgelegt sein, so dass die Steuerung 25 es jederzeit ausführen kann.

Claims (21)

  1. Steuervorrichtung (25, 28, 29) zum Steuern eines Robotersystems (11) mit wenigstens einem Roboterarm (14, 18), an dem ein chirurgisches Instrument (15, 19) befestigt ist, das einen Endeffektor (17, 21) aufweist, wobei die Steuervorrichtung (25, 28, 29) ein Bilderfassungssystem (25, 28) umfasst, das die Steuervorgabe wenigstens einer Hand (30 L, 30 R) aufzeichnet, auswertet und in entsprechende Steuerbefehle für eine oder mehrere Komponenten des Robotersystems (11) umsetzt, dadurch gekennzeichnet, dass eine Steuereinheit (25) vorgesehen ist, die – die Orientierung und/oder die Position und/oder den Öffnungsgrad des Endeffektors (17, 21) des chirurgischen Instruments (15, 19) als erste Größe bzw. erste Größen ermittelt, und ferner – die Orientierung und/oder die Position und/oder den Öffnungsgrad wenigstens einer Hand (30 L, 30 R) als zweite Größe bzw. zweite Größen ermittelt und im Falle einer Abweichung einer oder mehrerer der ersten Größen von der jeweils entsprechenden zweiten Größe eine manuelle Steuerung des Endeffektors (17, 21) unterbindet, und im Falle einer Übereinstimmung einer oder mehrerer der ersten Größen mit der jeweils entsprechenden zweiten Größe eine Gestensteuerung freigibt, so dass der Endeffektor (17, 21) mittels der Gestensteuerung betätigt werden kann.
  2. Steuervorrichtung (25, 28, 29) nach Anspruch 1, dadurch gekennzeichnet, dass wenigstens zwei der zweiten Größen mit den jeweils entsprechenden ersten Größen übereinstimmen müssen, um die Gestensteuerung zu aktivieren.
  3. Steuervorrichtung (25, 28, 29) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Steuereinheit (25) im Falle einer Abweichung einer oder mehrerer der ersten Größen von der jeweils entsprechenden zweiten Größe ein Signal ausgibt, das den Benutzer des Robotersystems (11) dazu auffordern soll, die Orientierung und/oder Position und/oder den Öffnungsgrad wenigstens einer Hand (30 L, 30 R) an den entsprechenden Zustand des Endeffektors (17, 21) anzupassen.
  4. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) im Falle einer Übereinstimmung einer oder mehrerer der zweiten Größen mit der jeweils entsprechenden ersten Größe ein Signal ausgibt, das dem Benutzer signalisiert, dass ein Abgleich einer Hand (30 L, 30 R) mit dem gesteuerten Endeffektor (17, 21) erfolgreich war.
  5. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) ein virtuelles Element (17') auf einem Bildschirm (29) darstellt, dessen Orientierung und/oder Position und/oder Öffnungsgrad derjenigen bzw. demjenigen der Hand (30 L, 30 R) entspricht.
  6. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) ein weiteres Element (17'') auf einem Bildschirm (29) darstellt, dessen Orientierung und/oder Position und/oder Öffnungsgrad derjenigen bzw. denjenigen des gesteuerten Endeffektors (17) entspricht, und das als Soll-Vorgabe für den Abgleich zwischen der steuernden Hand (30 L, 30 R) und dem gesteuerten Endeffektor (19, 21) dient.
  7. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ferner ein handbetätigtes Hilfselement (35 L, 35 R) vorgesehen ist.
  8. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) die Position der Hand (30 L, 30 R) ermittelt, indem sie einen Punkt (P1L, P1R, 37 L, 37 R) auf der Hand oder dem zugehörigen Arm oder auf einem zugehörigen Hilfselement (35 L, 35 R) festlegt und diesen Punkt (P1L, P1R, 37 L, 37 R) in einem Koordinatensystem (KG) des Bilderfassungssystems (25, 28) ermittelt.
  9. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) die Orientierung wenigstens einer Hand (30 L, 30 R) ermittelt, indem sie wenigstens einen Vektor (V1L, V1R) festlegt und diesen im Koordinatensystem (KG) des Bilderfassungssystems (25, 28) bestimmt.
  10. Steuervorrichtung (25, 28, 29) nach Anspruch 9, dadurch gekennzeichnet, dass die Steuereinheit (25) zur Festlegung des Vektors (V1L, V1R) zumindest einen weiteren Punkt (P2L, P2R, P3L, P3R, 37 L, 37 R) auf der Hand (30 L, 30 R) und/oder auf einem Hilfselement (35 L, 35 R) festlegt.
  11. Steuervorrichtung (25, 28, 29) nach Anspruch 10, dadurch gekennzeichnet, dass der Vektor (V1L, V1R) auf einer Ebene liegt, die durch zumindest drei der festgelegten Punkte (P1L, P1R, P2L, P2R, P3L, P3R, 37 L, 37 R) aufgespannt wird.
  12. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) zumindest einen Punkt (P2L, P2R, P3L, P3R) auf der Hand (30 L, 30 R) und/oder auf einem Hilfselement (35 L, 35 R) festlegt, der auf einer Spitze eines Fingers oder des Hilfselements (35 L, 35 R) liegt.
  13. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) den Öffnungsgrad wenigstens einer Hand (30 L, 30 R) ermittelt, indem sie zwei Linien (31, 32, 33, 34) festlegt, und den Winkel (αL, αR) zwischen den Linien (31, 32, 33, 34) im Koordinatensystem (KG) des Bilderfassungssystems (25, 28) bestimmt.
  14. Steuervorrichtung (25, 28, 29) nach Anspruch 11, dadurch gekennzeichnet, dass die Steuereinheit (25) den Öffnungsgrad wenigstens einer Hand (30 L, 30 R) ermittelt, indem sie den Abstand zwischen zwei Punkten (P2L, P2R, P3L, P3R) auf der Hand (30 L, 30 R) bestimmt.
  15. Steuervorrichtung (25, 28, 29) nach Anspruch 7, dadurch gekennzeichnet, dass das handbetätigte Hilfselement (36 L, 36 R) einen Inertialsensor umfasst, der eine Lage des Hilfselements im Raum und/oder eine Bewegung des Hilfselements (36 L, 36 R) in bzw. um drei Raumachsen messen kann.
  16. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (25) derart ausgelegt ist, dass eine Steuerbewegung einer Hand (30 L, 30 R) mit einem vorgegebenen Skalierungsfaktor in eine entsprechende Bewegung des Endeffektors (17, 21) umgesetzt wird.
  17. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie einen Bildschirm (29) umfasst, auf dem das mittels Gestensteuerung gesteuerte Objekt (17, 21) dargestellt wird, wobei die Orientierung von nur höchstens zwei Achsen eines Koordinatensystems (KG) des Bilderfassungssystems (25, 28) mit der Orientierung der entsprechenden Achsen eines Koordinatensystems (KB) der Bildschirmanzeige übereinstimmt und das Objekt so angezeigt wird, dass es sich auf dem Bildschirm (29) in Bezug auf das Koordinatensystem (KB) der Bildschirmanzeige in dieselbe Richtung bewegt wie die Bewegung der Hand in Bezug auf das Koordinatensystem (KG) des Bilderfassungssystems (25, 28).
  18. Steuervorrichtung (25, 28, 29) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Kamera (22, 23) vorgesehen ist, die den Endeffektor (17, 21) aufnimmt, und dass ein Koordinatensystem (KK1, KK2) der Kamera (22, 23) an den Bildachsen (41, 42) des von der Kamera (22, 23) aufgenommenen Bildes ausgerichtet ist, wobei eine der Achsen des Koordinatensystems (KK1, KK2) in Blickrichtung der Kamera (22, 23) zeigt.
  19. Steuervorrichtung (25, 28, 29) nach Anspruch 18, dadurch gekennzeichnet, dass die Steuereinheit (25) derart ausgelegt ist, dass eine Steuervorgabe einer Hand (30 L, 30 R) im Koordinatensystem (KG) des Bilderfassungssystems (25, 28) in eine entsprechende Bewegung des Endeffektors (17, 21) im Koordinatensystem (KK1, KK2) der Kamera (22, 23) umgesetzt wird.
  20. Steuervorrichtung (25, 28, 29) nach Anspruch 19, dadurch gekennzeichnet, dass das aktive Koordinatensystem zur Steuerung des Endeffektors (17, 21) zwischen den Koordinatensystemen (KK1, KK2) der Kameras (22, 23) wechselt, je nachdem von welcher Kamera (22, 23) der Endeffektor (17, 21) aufgezeichnet wird.
  21. Verfahren zum Steuern eines Robotersystems (11) mittels wenigstens einer Hand (30 L, 30 R) gekennzeichnet durch folgende Schritte: – Ermitteln der Orientierung und/oder der Position und/oder des Öffnungsgrades eines Endeffektors (17, 21) eines chirurgischen Instruments (14, 18) als eine erste Größe bzw. erste Größen; – Ermitteln der Orientierung und/oder der Position und/oder des Öffnungsgrades wenigstens einer Hand (30 L, 30 R) als zweite Größe bzw. zweite Größen; – Vergleichen wenigstens einer ersten Größe mit der jeweils entsprechenden zweiten Größe; – im Falle einer Abweichung einer oder mehrerer der ersten Größen von der jeweils entsprechenden zweiten Größe, Unterbinden einer manuellen Steuerung des Endeffektors (17, 21); und – im Falle einer Übereinstimmung einer oder mehrerer der ersten Größen mit der jeweils entsprechenden zweiten Größe, Freigeben der Gestensteuerung, so dass der Endeffektor (17, 21) mit der Hand (30 L, 30 R) gesteuert werden kann.
DE102013110847.4A 2013-10-01 2013-10-01 Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung Active DE102013110847B3 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102013110847.4A DE102013110847B3 (de) 2013-10-01 2013-10-01 Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
US15/025,899 US9901411B2 (en) 2013-10-01 2014-09-10 Control device and method for controlling a robot with a system by means of gesture control
CN201480054314.8A CN105636542B (zh) 2013-10-01 2014-09-10 借助手势控制来控制机器人系统的控制装置和方法
KR1020167011607A KR101797169B1 (ko) 2013-10-01 2014-09-10 제스처 컨트롤을 이용한 로봇 시스템 제어를 위한 방법과 제어 장치
JP2016519940A JP6284284B2 (ja) 2013-10-01 2014-09-10 ジェスチャ制御を用いるロボットシステム制御用の制御装置及び方法
PCT/EP2014/069284 WO2015049095A1 (de) 2013-10-01 2014-09-10 Steuervorrichtung und verfahren zum steuern eines robotersystems mittels gestensteuerung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013110847.4A DE102013110847B3 (de) 2013-10-01 2013-10-01 Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung

Publications (1)

Publication Number Publication Date
DE102013110847B3 true DE102013110847B3 (de) 2015-01-22

Family

ID=51542351

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013110847.4A Active DE102013110847B3 (de) 2013-10-01 2013-10-01 Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung

Country Status (6)

Country Link
US (1) US9901411B2 (de)
JP (1) JP6284284B2 (de)
KR (1) KR101797169B1 (de)
CN (1) CN105636542B (de)
DE (1) DE102013110847B3 (de)
WO (1) WO2015049095A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014006264A1 (de) * 2014-04-30 2015-11-05 gomtec GmbH Verfahren und Vorrichtung zum Steuern der Bewegung eines Objekts
WO2016137527A1 (en) 2015-02-24 2016-09-01 Sri International Hyperdexterous system user interface
WO2016201207A1 (en) 2015-06-10 2016-12-15 Intuitive Surgical Operations, Inc. Master-to-slave orientation mapping when misaligned
DE102016221193B3 (de) * 2016-10-27 2018-01-04 Kuka Roboter Gmbh Verfahren zum Steuern eines Manipulators basierend auf Handerkennung
US10099368B2 (en) 2016-10-25 2018-10-16 Brandon DelSpina System for controlling light and for tracking tools in a three-dimensional space
DE102018125956A1 (de) 2018-10-18 2020-04-23 Karl Storz Se & Co. Kg Verfahren und System zur Steuerung von Geräten in steriler Umgebung
DE102019118012B3 (de) * 2019-07-03 2020-09-17 Günther Battenberg Verfahren und Vorrichtung zum Steuern eines Robotersystems mittels menschlicher Bewegung
DE102019216229A1 (de) * 2019-10-07 2021-04-08 Robert Bosch Gmbh Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
AU2016365808B2 (en) * 2015-12-10 2021-07-29 Covidien Lp Robotic surgical systems with independent roll, pitch, and yaw scaling
DE102016221861B4 (de) 2016-11-08 2022-05-05 Volkswagen Aktiengesellschaft Einrichtung und Verfahren zur Einwirkung auf Gegenstände
DE102019109624B4 (de) 2018-04-18 2022-11-03 Fanuc Corporation Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8956280B2 (en) 2002-05-30 2015-02-17 Intuitive Surgical Operations, Inc. Apparatus and methods for placing leads using direct visualization
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11037423B2 (en) * 2015-09-23 2021-06-15 Ali Kord Posture monitor
CN105997247A (zh) * 2016-05-06 2016-10-12 京东方科技集团股份有限公司 一种应用于远程手术的控制端、手术设备端、方法及系统
EP3463160A4 (de) * 2016-06-03 2020-01-01 Covidien LP Steuerungsschema für chirurgisches robotisches mehrfacheingabesystem
CN109275333B (zh) * 2016-06-03 2022-05-17 柯惠Lp公司 用于控制机器人递送操纵器的系统、方法和计算机可读程序产品
GB2560384B (en) * 2017-03-10 2022-07-20 Cmr Surgical Ltd Controlling a surgical instrument
CN106814738A (zh) * 2017-03-30 2017-06-09 南通大学 一种基于体感控制技术的轮式机器人及其操控方法
CN107049497B (zh) * 2017-05-02 2020-12-04 浙江伽奈维医疗科技有限公司 穿刺导航机器人系统
EP3678580A4 (de) * 2017-09-05 2021-05-26 Covidien LP Robotische chirurgische systeme mit roll-, neigungs- und gierwinkelausrichtung mit trimm- und kippalgorithmen
US11109878B2 (en) 2017-10-30 2021-09-07 Cilag Gmbh International Surgical clip applier comprising an automatic clip feeding system
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US10863988B2 (en) 2017-11-29 2020-12-15 Intuitive Surgical Operations, Inc. Surgical instrument with lockout mechanism
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11026751B2 (en) 2017-12-28 2021-06-08 Cilag Gmbh International Display of alignment of staple cartridge to prior linear staple line
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11013563B2 (en) 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US11304763B2 (en) * 2017-12-28 2022-04-19 Cilag Gmbh International Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11612444B2 (en) 2017-12-28 2023-03-28 Cilag Gmbh International Adjustment of a surgical device function based on situational awareness
WO2019157500A2 (en) 2018-02-12 2019-08-15 Intuitive Surgical, Inc. Surgical instrument with lockout mechanism
US11457944B2 (en) 2018-03-08 2022-10-04 Cilag Gmbh International Adaptive advanced tissue treatment pad saver mode
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US20190354200A1 (en) * 2018-05-16 2019-11-21 Alcon Inc. Virtual foot pedal
US10983604B2 (en) 2018-05-16 2021-04-20 Alcon Inc. Foot controlled cursor
US11094221B2 (en) 2018-06-21 2021-08-17 University Of Utah Research Foundation Visual guidance system and method for posing a physical object in three dimensional space
US11192245B2 (en) * 2018-12-21 2021-12-07 The Boeing Company Independent end-effector control and operation
US11857188B2 (en) 2018-12-21 2024-01-02 Intuitive Surgical Operations, Inc. Articulation assemblies for surgical instruments
WO2020131692A1 (en) 2018-12-21 2020-06-25 Intuitive Surgical Operations, Inc. Surgical instruments having mechanisms for identifying and/or deactivating stapler cartridges
EP3897404A4 (de) 2018-12-21 2023-01-04 Intuitive Surgical Operations, Inc. Chirurgische instrumente mit verstärkter klammerpatrone
US11291444B2 (en) 2019-02-19 2022-04-05 Cilag Gmbh International Surgical stapling assembly with cartridge based retainer configured to unlock a closure lockout
US11944302B2 (en) 2019-04-15 2024-04-02 Intuitive Surgical Operations, Inc. Staple cartridge for a surgical instrument
US11896224B2 (en) 2019-05-31 2024-02-13 Intuitive Surgical Operations, Inc. Staple cartridge for a surgical instrument
US11786325B2 (en) * 2019-07-02 2023-10-17 Intuitive Surgical Operations, Inc. Remotely controlling a system using video
US11642129B2 (en) 2020-01-15 2023-05-09 Intuitive Surgical Operations, Inc. Staple cartridge and drive member for surgical instrument
CN111281649B (zh) * 2020-03-03 2021-08-13 西安交通大学 一种眼科手术机器人系统及其控制方法
CN113741550B (zh) * 2020-05-15 2024-02-02 北京机械设备研究所 移动机器人跟随方法和系统
CN116056843A (zh) 2020-08-03 2023-05-02 三菱电机株式会社 远程操作装置
US11844583B2 (en) 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
US11819302B2 (en) 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
US11832909B2 (en) 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints
EP4312857A1 (de) 2021-03-31 2024-02-07 Moon Surgical SAS Chirurgisches system zur komanipulation zur verwendung mit chirurgischen instrumenten zur durchführung laparoskopischer chirurgie
KR102532351B1 (ko) * 2021-08-05 2023-05-15 서울대학교병원 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
KR102648619B1 (ko) * 2022-01-06 2024-03-19 주식회사 삼육오엠씨(365mc) 지방흡입 수술용 하이브리드 로봇 장치
KR20230158329A (ko) 2022-05-11 2023-11-20 김원국 전력 공유형 전기 자동차 충전 시스템 및 전력 공유형 전기 자동차 충전 방법
WO2023233279A1 (en) * 2022-06-03 2023-12-07 Medical Microinstruments, Inc. A control method of a robotic system for medical or surgical teleoperation and related robotic system
WO2024013651A1 (en) * 2022-07-13 2024-01-18 Auris Health, Inc. Dynamic flexible scope drive and methods of using same
US11839442B1 (en) 2023-01-09 2023-12-12 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6659939B2 (en) * 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US7386365B2 (en) * 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
US8935003B2 (en) * 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
BR112012011422B1 (pt) 2009-11-13 2020-09-29 Intuitive Surgical Operations, Inc Sistema cirúrgico minimamente invasivo
CN101785704B (zh) * 2010-01-15 2012-06-06 广东工业大学 一种主从式微创手术机器人系统的自适应滤波装置
CN103607971B (zh) * 2011-07-07 2016-08-31 奥林巴斯株式会社 医疗主从操作器
US9931154B2 (en) * 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
US9629523B2 (en) * 2012-06-27 2017-04-25 Camplex, Inc. Binocular viewing assembly for a surgical visualization system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014006264A1 (de) * 2014-04-30 2015-11-05 gomtec GmbH Verfahren und Vorrichtung zum Steuern der Bewegung eines Objekts
EP3262469A4 (de) * 2015-02-24 2018-08-22 SRI International Inc. Benutzeroberfläche für hypergeschicktes system
WO2016137527A1 (en) 2015-02-24 2016-09-01 Sri International Hyperdexterous system user interface
US10842577B2 (en) * 2015-02-24 2020-11-24 Sri International Hyperdexterous system user interface
US20180036088A1 (en) * 2015-02-24 2018-02-08 Sri International Hyperdexterous system user interface
EP3307198A4 (de) * 2015-06-10 2019-01-09 Intuitive Surgical Operations Inc. Master-to-slave-ausrichtungskartierung bei fehlausrichtung
US11083532B2 (en) 2015-06-10 2021-08-10 Intuitive Surgical Operations, Inc. Master-to-slave orientation mapping when misaligned
US10524871B2 (en) 2015-06-10 2020-01-07 Intuitive Surgical Operations, Inc. Master-to-slave orientation mapping when misaligned
EP4159153A1 (de) * 2015-06-10 2023-04-05 Intuitive Surgical Operations, Inc. Master-to-slave-ausrichtungskartierung bei fehlausrichtung
WO2016201207A1 (en) 2015-06-10 2016-12-15 Intuitive Surgical Operations, Inc. Master-to-slave orientation mapping when misaligned
US11547504B2 (en) 2015-12-10 2023-01-10 Covidien Lp Robotic surgical systems with independent roll, pitch, and yaw scaling
AU2016365808B2 (en) * 2015-12-10 2021-07-29 Covidien Lp Robotic surgical systems with independent roll, pitch, and yaw scaling
US10099368B2 (en) 2016-10-25 2018-10-16 Brandon DelSpina System for controlling light and for tracking tools in a three-dimensional space
WO2018077469A1 (de) * 2016-10-27 2018-05-03 Kuka Roboter Gmbh Verfahren zum steuern eines manipulators basierend auf handerkennung
DE102016221193B3 (de) * 2016-10-27 2018-01-04 Kuka Roboter Gmbh Verfahren zum Steuern eines Manipulators basierend auf Handerkennung
DE102016221861B4 (de) 2016-11-08 2022-05-05 Volkswagen Aktiengesellschaft Einrichtung und Verfahren zur Einwirkung auf Gegenstände
DE102019109624B4 (de) 2018-04-18 2022-11-03 Fanuc Corporation Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE102018125956A1 (de) 2018-10-18 2020-04-23 Karl Storz Se & Co. Kg Verfahren und System zur Steuerung von Geräten in steriler Umgebung
EP3644162A2 (de) 2018-10-18 2020-04-29 Karl Storz SE & Co. KG Verfahren und system zur steuerung von geräten in steriler umgebung
EP3760393A1 (de) 2019-07-03 2021-01-06 Günther Battenberg Verfahren und vorrichtung zum steuern eines robotersystems mittels menschlicher bewegung
DE102019118012B3 (de) * 2019-07-03 2020-09-17 Günther Battenberg Verfahren und Vorrichtung zum Steuern eines Robotersystems mittels menschlicher Bewegung
DE102019216229A1 (de) * 2019-10-07 2021-04-08 Robert Bosch Gmbh Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
DE102019216229B4 (de) 2019-10-07 2022-11-10 Robert Bosch Gmbh Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung

Also Published As

Publication number Publication date
KR101797169B1 (ko) 2017-11-13
JP2016538894A (ja) 2016-12-15
CN105636542B (zh) 2018-11-06
US9901411B2 (en) 2018-02-27
WO2015049095A1 (de) 2015-04-09
JP6284284B2 (ja) 2018-02-28
CN105636542A (zh) 2016-06-01
US20160235489A1 (en) 2016-08-18
KR20160071407A (ko) 2016-06-21

Similar Documents

Publication Publication Date Title
DE102013110847B3 (de) Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
DE102012110190B4 (de) Manuell betätigte Robotersteuerung und Verfahren zum Steuern eines Robotersystems
EP2449997B1 (de) Medizinischer Arbeitsplatz
EP3995097B1 (de) Intelligenter haltearm für die kopfchirurgie mit berührungsempfindlicher bedienung
DE102015200428B3 (de) Verfahren zur Ausrichtung eines mehrachsigen Manipulators mit einem Eingabegerät
EP2575662B1 (de) Verfahren zum bewegen eines instrumentenarms eines laparoskopieroboters in eine vorgebbare relativlage zu einem trokar
DE102013100605A1 (de) Robotersystem und Verfahren zum Steuern eines Robotersystems für die minimal invasive Chirurgie
DE102014016823B4 (de) Verfahren zum Steuern eines an einem Haltearm gekoppelten mechatronischen Assistenzsystems
EP2838699B1 (de) Verfahren zum betreiben eines roboters
EP3271118B1 (de) Robotersystem und verfahren zum betrieb eines teleoperativen prozesses
DE102013004692A1 (de) 3D-Eingabegerät mit einem zusätzlichen Drehregler
EP3273898B1 (de) Chirurgisches instrument sowie system
WO2015032738A1 (de) Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE4310842A1 (de) Vorrichtung für die Durchführung von minimal invasiven Operationen
DE102014016824A1 (de) Intelligenter Haltearm für die Kopfchirurgie mit berührungsempfindlicher Bedienung
DE102019128277A1 (de) Passive Haltevorrichtung, modulares chirurgisches System und Verfahren zum Handhaben eines Trokars
DE102014019752A1 (de) Haltearm für medizinische Zwecke mit zwei mechatronischen Schnittstellen
DE102018104714A1 (de) Telemanipulatorsystem und Verfahren zum Betreiben eines Telemanipulatorsystems
DE102016107853A1 (de) Operations-Assistenz-System und Verfahren zur Erzeugung von Steuersignalen zur Ansteuerung einer motorisch gesteuerten bewegbaren Roboterkinematik eines derartigen Operations-Assistenz-Systems
DE102014006264A1 (de) Verfahren und Vorrichtung zum Steuern der Bewegung eines Objekts
DE102014210056A1 (de) Verfahren zur Ansteuerung eines chirurgischen Geräts sowie chirurgisches Gerät
DE102009034938B4 (de) Verfahren zur Kommandierung eines Bewegungssystems mit einer Messeinrichtung
WO2024018011A1 (de) Steuervorrichtung und system, sowie system mit einem medizinischen operationsinstrument, einer datenerfassungsvorrichtung und einer datenverarbeitungseinrichtung
DE102013220329A1 (de) Repositionierbares Robotersystem
DE102022117010A1 (de) Medizinisches System und Verfahren zum Betrieb eines medizinischen Systems zur Bestimmung der Lage einer Zugangseinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: ABB SCHWEIZ AG, CH

Free format text: FORMER OWNER: RG MECHATRONICS GMBH, 82229 SEEFELD, DE

R082 Change of representative

Representative=s name: KEILITZ & SOELLNER, PARTNERSCHAFT, DE

Representative=s name: PATENTANWAELTE KEILITZ & PARTNER, PARTNERSCHAF, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative

Representative=s name: KEILITZ HAINES & PARTNER PATENTANWAELTE PARTGM, DE

Representative=s name: PATENTANWAELTE KEILITZ & PARTNER, PARTNERSCHAF, DE

R081 Change of applicant/patentee

Owner name: ABB SCHWEIZ AG, CH

Free format text: FORMER OWNER: GOMTEC GMBH, 82229 SEEFELD, DE

R082 Change of representative

Representative=s name: KEILITZ HAINES & PARTNER PATENTANWAELTE PARTGM, DE

Representative=s name: PATENTANWAELTE KEILITZ & PARTNER, PARTNERSCHAF, DE