DE102004052753A1 - Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff - Google Patents

Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff Download PDF

Info

Publication number
DE102004052753A1
DE102004052753A1 DE102004052753A DE102004052753A DE102004052753A1 DE 102004052753 A1 DE102004052753 A1 DE 102004052753A1 DE 102004052753 A DE102004052753 A DE 102004052753A DE 102004052753 A DE102004052753 A DE 102004052753A DE 102004052753 A1 DE102004052753 A1 DE 102004052753A1
Authority
DE
Germany
Prior art keywords
position coordinates
instrument
sensor element
auxiliary instrument
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102004052753A
Other languages
English (en)
Inventor
Juergen Michael Knapp
Robert Geiger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102004052753A priority Critical patent/DE102004052753A1/de
Publication of DE102004052753A1 publication Critical patent/DE102004052753A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Abstract

Die Erfindung betrifft ein Verfahren zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes in Bezug auf ein führendes Instrument über ein Operations-Assistenz-System bei einem medizinisch minimal-invasiven Eingriff, bei dem über die Steuereinheit des Operations-Assistenz-Systems die aktuellen Positionskoordinaten eines in einem dreidimensionalen Messraum bewegten ersten Sensorelements ermittelt werden. Das erste Sensorelement ist hierzu an einem aus dem Patientenkörper herausragenden Abschnitt des führenden Instrumentes angeordnet. Anhand der ermittelten Positionskoordinaten des ersten Sensorelements werden die Positionskoordinaten des Hilfsinstrumentes ermittelt und abhängig davon das zumindest eine Hilfsinstrument dem führenden Instrument nachgeführt.

Description

  • Die Erfindung betrifft ein Verfahren nach dem Oberbegriff des Patentanspruches 1 und ein Operations-Assistenz-System nach dem Oberbegriff des Patentanspruches 9.
  • Minimal-invasive chirurgische Interventionen bzw. Eingriffe gewinnen aufgrund ihrer zahlreichen Vorteile, insbesondere aufgrund der Reduktion des im Vergleich zu herkömmlichen Operationsmethoden reduzierten Eingriffsraumes zunehmend an Bedeutung. Bei derartigen „minimal-invasiven" Eingriffen wird ein Instrument, beispielsweise ein chirurgisches Instrument oder ein optisches oder bildgebendes Instrument, beispielsweise ein Endoskop, über eine kleinformatige Operations-Öffnung bzw. einen Eingriffsraum in das Innere eines Patientenkörpers eingeführt.
  • Eine minimal-invasive Durchführung eines operativen Eingriffs bedeutet für den durchführenden Operateur jedoch, dass dieser die unmittelbare optische Kontrolle über das Operationsgebiet bzw. den Operationsraum verliert. Die optische Kontrolle wird hierbei über bildgebende Hilfsinstrumente, wie z.B. Kameras wiederhergestellt, die durch den kleinformatigen Eingriffsraum in den inneren Raum des Patientenkörpers – lapraskopischer Eingriff – eingeführt werden.
  • Die durch das bildgebende Hilfsinstrument, beispielsweise eine Laparoskop-Kamera, erzeugten Bilder werden über zumindest einem Operationsmonitor dem Operateur angezeigt. Zur optischen Überwachung der im Inneren des Patientenkörpers durchgeführten Bewegungen des chirurgischen Instruments durch den Operateur ist es erforderlich, die Laparoskop-Kamera zur Erfassung des chirurgisches Instruments durch einen Assistenten einstellen bzw. nachführen zu lassen. Das hierzu erforderliche sehr präzise Zusammenwirken zwischen Operateur und Assistent ist insbesondere in Extremsituationen störungsanfällig, so dass technische Steuerungsverfahren wünschenswert sind, die dem Operateur die direkte Kontrolle des Operationsgebiets ohne Einschaltung eines Assistenten ermöglichen.
  • Zur Durchführung derartiger minimal-invasiver Eingriffe sind beispielsweise „Operations-Assistenz-Systeme" oder „Operations-Assistenz-Roboter" bekannt, die aufgrund der unterschiedlichen Ausgestaltung der Kameranachführung in zwei Gruppen unterteilt werden können:
    • • Passive Kameraführungsysteme, bei denen die Kameraführung mittels Befehlseingabe über Fuß- oder Handschalter bzw. Sprachkommandos durchgeführt wird und
    • • Selbstführende bzw. autonome Kameraführungsysteme, bei denen die Ausrichtung des Kamerasystems bzw. die Nachführung der Kamera automatisch anhand einer kontinuierlichen Online-Erfassung eines jeweils aktuell zu erfassenden Zielpunktes durchgeführt wird.
  • Bei autonomen Kameraführungsystemen wird als Zielpunkt beispielsweise die Spitze eines chirurgischen Operationsinstrumentes, auch dominierendes oder führendes Instrument genannt, verwendet, welches an seiner Operationsspitze ein speziell ausgewähltes Muster, beispielsweise Farb- und/oder Strichmuster oder ähnliche Kennzeichnungselemente aufweist, die über ein „Trackingsystem" bzw. ein Farb- und/oder Mustererkennungssystem erfassbar sind. Die mit dem Kennzeichnungselement ausgestattete Spitze des Operationsinstrumentes befindet sich hierzu in einem abgegrenzten dreidimensionalen Messraum, der durch die Operationskamera optisch erfasst wird. Die über beispielsweise ein Bildverarbeitungssystem ermittelten Positionskoordinaten geben einen Aufschluss über die aktuelle Lage des betrachteten Zielpunktes im Inneren des Patientenkörpers und können zur Steuerung der Kameranachführung ausgewertet werden.
  • Derartige Verfahren zur automatischen Nachführung zumindest einer Operationskamera nach einem führenden Operationsinstrument weisen jedoch den Nachteil auf, dass die über das Kennzeichnungselement im inneren des Patientenkörpers zu überwachende Spitze des chirurgischen Operationsinstruments visuell identifiziert werden muss. Die hierzu erforderliche Farb- und/oder Mustererkennung versagt insbesondere dann, wenn das zu identifizierende Kennzeichnungselement (Farbmarker oder Muster am Ende des Instrumentes) durch ein weiteres Instrument verdeckt wird oder aufgrund einer Verschmutzung oder Rauchentwicklung im Inneren des Patientenkörpers das Kennzeichnungselement optisch nicht mehr lokalisiert werden kann. Derartige Fehlidentifikationen können zu einer fehlerhaften Nachführung der Laparoskop-Kamera führen, was zu einer Beeinträchtigung der auf den Operationsmonitoren visualisierten Abbildung des Operationsraumes führt.
  • Ein weiterer Nachteil besteht darin, dass für die Erfassung der Tiefenlage (z-Achse) im dreidimensionalen Messraum zwangsläufig ein weiteres teueres und störanfälliges Stereooptiksystem erforderlich ist. Eine Identifikation bzw. korrekte Systemfunktion eines derartigen Stereooptiksystems ist insbesondere nur dann möglich, wenn eine fortlaufend saubere Optikeinheit sowie ein korrekter Weißabgleich sichergestellt werden können.
  • Darüber hinaus sind elektromagnetische und optische Positionserfassungssysteme beispielsweise der Northern Digital INC. (www.ndigital.com) und der Ascension Technology Corporation (www.ascension-tech.com) bekannt, bei denen ein dreidimensionaler Messraum, beispielsweise ein gepulstes Magnetfeld erzeugt wird und aufgrund unterschiedlicher physikalischer Effekte die Position eines im dreidimensionalen Messraum bewegten Sensorelementes über eine Auswerteeinheit ermittelt werden kann.
  • Aufgabe der Erfindung ist es, ein Verfahren und ein Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes, insbesondere eines bildgebenden Hilfsinstruments, bzgl. eines führenden Instrumentes anzugeben, bei dem die Nachteile der aus dem Stand der Technik bekannten Systeme beseitigt sind und eine zuverlässige Nachführung des zumindest einen Hilfsinstruments sichergestellt ist.
  • Die erfindungsgemäße Aufgabe wird ausgehend von dem Oberbegriff des ein Verfahren zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes betreffenden Patentanspruches 1 durch dessen kennzeichnende Merkmale gelöst. Ferner wird die Aufgabe ausgehend von dem Oberbegriff des ein Operations-Assistenz-System betreffenden Patentanspruch 9 durch dessen kennzeichnende Merkmale gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Vorteilhaft werden zur Steuerung der Nachführung beispielsweise eines bildgebenden Hilfsinstruments, insbesondere einer Laparoskop-Kamera, anhand der ermitteltenen Positionskoordinaten des ersten Sensorelementes die Positionskoordinaten des Hilfsinstrumentes ermittelt und abhängig davon das zumindest eine Hilfsinstrument dem führenden Instrument nachgeführt wird. Das „Tracking" eines führenden Instruments über ein außerhalb des Patientenkörpers vorgesehenes erstes Sensorelementes bzw. Navigationssensors ist im Vergleich zu den aus dem Stand der Technik bekannten Verfahren weniger störungsanfällig sowie einfacher und kostengünstiger zu realisieren.
  • Darüber hinaus werden in einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens die Positionskoordinaten eines an einem aus dem Patientenkörper herausragenden Abschnitts des Hilfsinstrumentes angeordneten und im dreidimensionalen Messraum bewegten zweiten Sensorelementes bestimmt und abhängig davon die Positionskoordinaten des Hilfsinstrumentes ermittelt.
  • Weiterhin vorteilhaft werden die Positionskoordinaten des ersten und/oder zweiten Sensorelementes über ein elektromagnetisches und/oder optisches Erfassungssystem ermittelt.
  • Die Erfindung wird im Folgenden anhand der Figuren an Ausführungsbeispielen näher erläutert. Es zeigen:
  • 1 in einer vereinfachten Darstellung einen Operationstisch mit einem C-Bogen und mit einem Operations-Assistenz-System für minimal-invasive Interventionen;
  • 2 in einer vereinfachten Darstellung den Operationstisch mit einer Ausführung des erfindungsgemäßen Operations-Assistenz-Systems;
  • 3 in einem schematischen Blockschaltbild die Steuereinheit des Operations-Assistenz-Systems.
  • Der in der 1 allgemein mit 1 bezeichnete Operationstisch besteht in bekannter Weise aus einem Fußteil 2, einer Hubsäule 3 und dem eigentlichen Tischelement 4, welches die Auflage für den Patienten 5 während einer Operation bzw. einem minimal-invasiven Eingriff bildet.
  • Mit dem Operationstisch 2 verbunden ist bei der dargestellten Ausführungsform ein in der 1 allgemein mit 6 bezeichnetes Operations-Assistenz-System, welches bei der dargestellten Ausführungsform aus einer Kinematik besteht, die eine Tragsäule 7 und mehrere Arme 8, 9 und 10 aufweist, von denen der Arm 10 an seinem freien Ende einen Instrumentenhalter 11 bildet, an der ein Hilfsinstrument 12, welches bei der dargestellten Ausführungsform als Endoskop mit Kamera 13 ausgestaltet ist, um mehrere Achsen anhand mehrer Motoreneinheiten motorisch beweglich gehalten ist. Das Hilfsinstrument 12 wird bei einem minimal-invasiven Eingriff mit seiner Instrumentenspitze 12.1 (beispielsweise eine Optik des Endoskops) durch eine Operationsöffnung in den im Körper des Patienten 5 befindlichen Operationsbereich eingeführt (lapraskopischer Eingriff) und ist entweder manuell durch den Operateur oder automatisch anhand einer auf einer Mikroprozessoreinheit ablaufenden Softwareroutine steuerbar.
  • Zur manuellen Steuerung ist beispielhaft eine Steuer- oder Betätigungseinrichtung 14 (z. B. Fußschalteranordnung) vorgesehen, die an eine Steuereinheit 15, beispielsweise ein Computersystem, angeschlossen ist. Die Steuereinheit 15 ist über Steuerleitungen 15.1 mit dem Operations-Assistenz-System 6 und über weitere Steuerleitungen 15.2 mit der Steuer- oder Betätigungseinrichtung 14 verbunden.
  • Am Operationstisch 1 kann beispielsweise ein so genannter C-Bogen 16, an welchem eine bildgebende Einrichtung 17, beispielsweise die Strahlungsquelle einer bildgebenden Einrichtung auf Röntgenbasis, vorgesehen sein, und zwar für eine bildgebende Untersuchung und/oder Überwachung des Operationsbereichs des Patienten 5 während des minimal-invasiven Eingriffs. Als bildgebende Einrichtungen bzw. Methoden kommen außer solchen auf Röntgenbasis auch andere bildgebende Verfahren oder Systeme in Frage, wie beispielsweise Kernspin, Magnetresonanz usw..
  • Anhand der schematischen Darstellung gemäß 2 wird die Funktionsweise des erfindungsgemäßen Operations-Assistenz-Systems 6 bzw. des zugehörigen Verfahrens zur Steuerung der Nachführung eines Hilfsinstrumentes 12 näher beschrieben.
  • Zusätzlich zu den bereits in 1 dargestellten Komponenten ist in 2 zur Erzeugung eines dreidimensionalen Messraumes 20 eine Messraumerzeugungseinheit 19 beispielsweise am Fußende des Tischelementes 4 angeordnet. Die Messraumerzeugungseinheit 19 erzeugt einen oberhalb des minimal-invasiven Eingriffsbereichs und somit außerhalb des Patientenkörpers liegenden dreidimensionalen Messraum 20. Je nach dem welches in der Steuereinheit 15 Positionsbestimmungsverfahren implementiert ist kann der dreidimensionale Messraum 20 entweder als elektromagnetischer oder als optischer dreidimensionaler Messraum oder beides ausgestaltet sein. Derartige elektromagnetische bzw. optische Positionserfassungssystem werden beispielsweise durch die Firmen Northern Digital INC. und Ascension Technology Corporation hergestellt und unter den Bezeichnungen „Optotrak", „Polaris" bzw. „Flock of Birds" und „microBird" vertrieben. Im Falle eines optischen Positionserfassungssystems kann die Messraumerzeugungseinheit 19 aus mehreren zusammenwirkenden optischen und elektronischen Komponenten aufgebaut sein, die in unterschiedlichen Positionen am Operationstisch 1 oder im Operationssaal angeordnet sind.
  • Ferner ist zumindest ein führendes Instrument 21 vorgesehen, dass mit seiner Instrumentenspitze 21.1 in den Operationsbereich des Patienten 5 über die Eingriffsöffnung hineinragt. Als führendes Instrument 21 kann beispielsweise ein Operationsmesser oder ähnliches vorgesehen sein, dass manuell oder maschinell durch den Operateur gesteuert während des minimal-invasiven Eingriffs im Inneren des Patienten 5 bewegt wird.
  • Das Hilfsinstrument 12 und das führende Instrument 21 weisen beispielhaft ein erstes und zweites Sensorelement 22, 23, die jeweils an einem aus dem Patientenkörper 5 herausragenden Abschnitt 21.2, 12.2 des Hilfsinstrumentes 12 und das führende Instrumentes 21 angeordnet sind. Ferner befinden sich das erste und zweite Sensorelement 22, 23 bei der Durchführung des Verfahrens zur Steuerung der Nachführung des zumindest einen Hilfsinstrumentes 12 im dreidimensionalem Messraum 20, in dem die Positionskoordinaten des ersten und zweiten Sensorelementes über ein optisches und/oder elektromagnetisches Positionsbestimmungsverfahren ermittelbar sind. Der dreidimensionale Messraum 20 wird hierzu durch ein dreidimensionales Koordinatensystem 20.1 eindeutig festgelegt.
  • Im Folgenden soll kurz die Funktionsweise eines elektromagnetischen Positionsbestimmungsverfahrens kurz erläutert werden. Über die Messraumerzeugungseinheit 19 wird in an sich bekannter Weise ein gepulstes Gleichstrommagnetfeld erzeugt, in welchem die Bewegungen eines magnetischen Sensorelementes in Echtzeit erfasst werden. Hierzu weist die Messraumerzeugungseinheit 19 einen Magnetfeldsender mit beispielsweise drei Magnetspulen auf. Die beispielsweise drei Magnetspulen stehen jeweils zueinander orthogonal, so dass hierdurch ein räumliches Koordinatensystem mit x-, y- und z-Achse (siehe 2) mit sechs Freiheitsgraden abgebildet wird.
  • Zur Erfassung der Koordinaten der Instrumentenspitze 21.1 des führenden Instrumentes 21 wird beispielsweise das erste Sensorelement 22 als passive magnetische Sensoreinheit ausgestaltet. Eine Bewegung eines mit einer derartigen passiven magnetischen Sensoreinheit ausgestalteten führenden Instrumentes 21 innerhalb des durch das Gleichstrommagnetfeld gebildeten dreidimensionalen Messraumes 20 führt zu einer Induzierung eines Stromes in den passiven magnetischen Sensoreinheit bzw. den in der magnetischen Sensoreinheit vorgesehenen Spulen. Aufgrund der Stromabschwächung in zumindest zwei Spulen und der bekannten Geometrie der Spulenanordnung kann ein Rückschluss auf die Rotation bzw. Bewegungsrichtung des ersten Sensorelementes 22 im Magnetfeld gezogen werden. Mit Hilfe eines derartigen Positionsbestimmungsverfahrens können somit alle Bewegungen eines an einem Operationsinstrument angebrachten Sensorelementes 22, 23 in einem betrachteten Gleichstrommagnetfeld bzw. dreidimensionalen Messraum 20 verfolgt und analysiert werden, sowie die ermittelten Positionskoordinaten einer Steuereinheit 15 zur Auswertung zugeführt werden.
  • Mit Hilfe von bekannten mathematischen Algorithmen ist somit eine exakte Positionsbestimmung als auch eine Bestimmung der Bewegungsrichtung der außerhalb des Patientenkörpers im dreidimensionalen Messraum 20 befindlichen ersten und zweiten Sensorenelemente 22, 23 möglich.
  • Zur Übermittlung der Messsignale sind sowohl das erste als auch das zweite Sensorelement 22, 23 im Falle eines elektromagnetischen Erfassungssystems entweder über drahtgebundene Verbindungsleitungen oder eine drahtlose Luftschnittstelle mit der Steuereinheit 15 verbunden. Im Falle von optischen Erfassungssystemen sind das erste und zweite Sensorelement als gabelartige Elemente ausgestaltet, die zumindest drei Zacken aufweisen und bei dem die drei Zacken an einem Ende über ein Verbindungsstück zugeführt und an den Abschnitten 12.2, 21.2 der Instrumente 12, 21 befestigt sind. Die anderen Zackenenden weisen jeweils ein optisches Medium reflektierende Elemente, insbesondere Kugeln auf, die somit eine passive Reflexion eines optischen Mediums beispielsweise von Infrarotlicht erzeugen.
  • Die Befestigungsstelle des ersten und zweiten Sensorelementes 22, 23 am aus dem Patientenkörpers herausragenden Abschnitt des Hilfsinstrumentes 12 bzw. führenden Instrumentes 21 weist jeweils eine starre Verbindung mit der Optik 12.1 bzw. der Instrumentenspitze 21.1 des führenden Instrumentes 21 auf. Zur Anzeige der über die Optik 12.1 und an die Kamera 13 erzeugten Aufnahmen aus dem Inneren des Patientenkörpers 5 sind Monitoreinheiten 18.1, 18.2 vorgesehen, die beispielsweise mit der Steuereinheit 15 verbunden sind. Somit ermöglicht die Optik 12.1 die Übertragung von Aufnahmen des Operationsraumes bzw. Operationsbildern der Instrumentenspitze 21.1 des führenden Instrumentes 21 aus dem Inneren des Patienten 5. Diese dienen dem Operateur zur Überwachung des führenden Instruments 21 bei dem minimal-invasiven Eingriff über die Monitoreinheiten 18.1, 18.2.
  • Zur Steuerung des Nachführens des Hilfsinstruments 12, insbesondere einer laparoskopischen Kamera im Körperinneren des Patienten 5 sind in der Steuereinheit 15 mehrere Softwareroutinen vorgesehen, deren Zusammenwirken anhand des in 3 dargestellten schematischen Blockschaltbildes näher erläutert wird.
  • Die Steuereinheit 15 weist eine Mikrokontrollereinheit 24 auf, die an eine Speichereinheit 25 angeschlossen ist. In der Mikrokontrollereinheit 24 sind eine Bewertungsroutine 26, eine Auswerteroutine 27 sowie eine Nachführungsroutine 28 vorgesehen. Anhand der Bewertungsroutine werden die Positionskoordinaten x11, y11, z11 des ersten Sensorelementes 22 im dreidimensionalen Messraum 20 ermittelt und in der Auswertungsroutine 27 mehrere derartiger Positionskoordinaten x11-x1n, y11-y1n, z11-z1n zur Bestimmung der Positionskoordinaten xFI, yFI, zFI des führenden Instrumentes 21 bzw. dessen Instrumentenspitze 21.1 im Inneren des Patientenkörpers 5 ausgewertet.
  • Über die Nachführungsroutine 28 werden zur Steuerung der Nachführung des zumindest einen Hilfsinstrumentes 12 nach dem führenden Instrument 21 abhängig von den ausgewerteten Positionskoordinaten xFI, yFI, zFI Steuersignale ss erzeugt, über die die Kinematik bzw. die Arme 810 des Operations-Assistenz-System 6 über die hierzu vorgesehenen Motoreneinheiten angesteuert werden und eine über die Nachführungsroutine berechnete Zielposition xz, yz, zz anfahren.
  • Zusätzlich werden anhand der Bewertungsroutine 26 die Positionskoordinaten x21, y21, z21 des im dreidimensionalen Messraum 20 bewegten zweiten Sensorelementes 23 ermittelt und abhängig von den ermittelten Positionskoordinaten x21-x2n, y21-y2n, z21-z2n anhand der Auswertungsroutine 27 die Positionskoordinaten xHI, yHI, zHI des Hilfsinstrumentes 12 bzw. dessen Instrumentenspitze 12.1 bestimmt. Ausgehend von der ermittelten Position der Instrumentenspitze bzw. Optik 12.1 des Hilfsinstrumentes 12 wird über die Nachführungsroutine 28 der Abstand DIST zwischen den beiden Instrumentenspitzen 12.1, 21.1 berechnet und mit einem Sollwert DSOLL verglichen. Bei einem Abweichen des aktuellen Abstandes DIST von dem Sollwert DSOLL werden durch die Nachführungsroutine 28 Steuersignale ss erzeugt, über die Kinematik bzw. die Arme 810 des Operations-Assistenz-System 6 über die hierzu vorgesehenen Motoreneinheiten angesteuert werden. In der Speichereinheit 25 werden die jeweils ermittelten Positionskoordinaten gespeichert und laufend aktualisiert. Beispielsweise können über die Bewertungsroutine 26 und die Auswertungsroutine 27 mehrere hundert Messungen und zugehörige Auswertungen pro Minute durchgeführt werden, so eine hohe Positionsgenauigkeit sichergestellt werden kann.
  • Wird beispielsweise das führende Instrument 21 in x-Richtung bewegt, so wird diese Bewegung über die Steuereinheit 15 erfasst und zur Steuerung der Nachführung des bildgebenden Hilfsinstrumentes 12 bzw. der Optik 12.1 über die Nachführungsroutine 28 Steuersignale ss erzeugt. Die Steuersignale ss werden an die Motoreneinheiten der Kinematik des Operations-Assistenz-Systems 6 übertragen und führen zu einer Nachführung des Instrumentenhalters 11 über die Arme 810 in x-Richtung. Die am Instrumentenhalter 11 starr befestigte Optik 12.1 wird hierdurch solange in x-Richtung bewegt, bis die Instrumentenspitze 21.1 des Operationsinstrumentes 21 von der Optik 12.1 in einem optimalen Umfang erfasst wird.
  • In einer bevorzugten Ausführungsform kann die Nachführungsroutine 28 derart ausgestaltet sein, das eine Nachführung der Optik 12.1 in eine ermittelte Bewegungsrichtung des Operationsinstrumentes 21 erst dann erfolgt, wenn eine definierte Entfernung bzw. Referenzabstand DREF von der Instrumentenspitze 21.1 des Operationsinstrumentes 21 zur Optik 12.1 des Kameramoduls erreicht ist. Erst bei einem Überschreiten eines Referenzabstandes DREF durch den ermittelten Abstand DIST der beiden Spitzen 12.1, 21.1 des führenden Instrumentes 21 und des Hilfsinstrumentes 21 wird ein Steuersignal ss zur Nachführung des Hilfsinstrumentes 12 erzeugt. Hierdurch kann die Bildstabilität im Bereich des Operationsfeldes deutlich verbessert werden.
  • Insbesondere sind bisher bekannte magnetische Erfassungssysteme zwar anfällig gegenüber Ferromagnetischen Materialien, jedoch stellt dies beim Einsatz bei laparoskopischen Interventionen kein Hindernis dar, da hier ausschließlich aus paramagnetischen Werkstoffen hergestellte Operationsinstrumente und Optik eingesetzt werden.
  • In einem typischen Operationsablauf wird zunächst der Operateur über das Betätigungselement 14 manuell die laparoskopische Kamera 12 über die Operationsöffnung an die gewünschte Position innerhalb des Patientenkörpers 5 einführen, um den Operationsbereich auf den Monitoreinheiten 18.1, 18.2 darstellen zu können. Über die Bewertungsroutine 26 werden die Startpositionskoordinaten xs, ys, zs anhand der vom zweiten Sensorelement 23 gelieferten Daten ermittelt und diese in der Speichereinheit 25 gespeichert.
  • Im Folgenden wird das führende Instrument 21 über die laparoskopische Operationsöffnung eingeführt und bei Vorliegen eines für den Operateur optimalen Darstellung des Operationsbereiches von der manuellen Steuerung der laparoskopische Kamera 12 auf die automatische Steuerung gemäß dem zuvor beschrieben Verfahren umgeschaltet. Der aktuell vorliegende Abstand DIST wird über die in der Steuereinheit 15 vorgesehenen Bewertungsroutine 26 und Auswerteroutine 27 ermittelt und als Sollabstand DSOLL in der Speichereinheit 25 abgelegt. Im Anschluß wird die zuvor beschriebene Nachführung der laparoskopische Kamera 12 bzw. deren Optik 12.1 nach dem führenden Instrument 21 automatisch über das Operations-Assistenz-System 6 solange durchgeführt, bis der Operateur beispielsweise durch Betätigung der Fusschalteranordnung 14 auf den manuellen Betrieb umschaltet.
  • Die Erfindung wurde voranstehend an einem Ausführungsbeispiel erläutert. Es versteht sich, dass zahlreiche Änderungen sowie Abwandlungen möglich sind, ohne dass dadurch der der Erfindung zugrunde liegende Erfindungsgedanke verlassen wird.
  • 1
    Operationstisch
    2
    Fußteil
    3
    Hubsäule
    4
    Tischelement
    5
    Patient
    6
    Operations-Assistenz-System
    7
    Tragsäule
    8–10
    Arm
    11
    Instrumentenhalter
    12
    Hilfsinstrument, insbesondere bildgebendes Hilfsinstrument
    12.1
    Optik des Hilfsinstrumentes
    12.2
    Abschnitt des Hilfsinstrumentes
    13
    Kamera
    14
    Betätigungselement, beispielsweise Fußschalteranordnung
    15
    Steuereinheit
    15.1
    erste Steuerleitungen
    15.2
    zweite Steuerleitungen
    16
    C-Bogen
    17
    Element oder Strahlungsquelle für bildgebende Einrichtung
    18.1, 18.2
    Monitoreinheiten
    19
    Messraumerzeugungseinheit
    20
    dreidimensionaler Messraum
    20.1
    Raumachsen des dreidimensionalen Messraumes
    21
    führendes Instrument, insbesondere Operationsinstrument
    21.1
    Instrumentenspitze des führenden Instruments
    21.2
    Abschnitt des führenden Instruments
    22
    erstes Sensorelement
    23
    zweites Sensorelement
    24
    Mikrokontrollereinheit
    25
    Speichereinheit
    26
    Bewertungsroutine
    27
    Auswerteroutine
    28
    Nachführungsroutine
    ss
    Steuersignale
    x11, y11, z11
    Positionskoordinaten des ersten Sensorelementes
    x1n, y1n, z1n
    weitere Positionskoordinaten des ersten Sensorelementes
    xFI, yFI, zFI
    Positionskoordinaten des führenden Instrumentes
    x21, y21, z21
    Positionskoordinaten des zweiten Sensorelementes
    x2n, y2n, z2n
    weitere Positionskoordinaten des zweiten Sensorelementes
    xHI, yHI, zHI
    Positionskoordinaten des Hilfsinstrumentes
    xs, ys, zs
    Startpositionskoordinaten
    xz, yz, zz
    Zielpositionskoordinaten
    DIST
    Abstand
    DSOLL
    Sollabstand
    DREF
    Referenzabstand

Claims (17)

  1. Verfahren zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes (12) in Bezug auf ein führendes Instrument (21) über ein Operations-Assistenz-Systems (6) bei einem medizinisch minimal-invasiven Eingriff, bei dem über die Steuereinheit (15) des Operations-Assistenz-Systems (6) die Positionskoordinaten (x11, y11, z11) eines in einem dreidimensionalen Messraum (20) bewegten ersten Sensorelements (22) ermittelt werden, wobei das erste Sensorelements (22) an einem aus dem Patientenkörper (5) herausragenden Abschnitt (21.2) des führenden Instrumentes (21) angeordnet ist, dadurch gekennzeichnet, dass anhand der ermitteltenen Positionskoordinaten (x11, y11, z11) des ersten Sensorelementes (20) die Positionskoordinaten (xHI, yHI, zHI) des Hilfsinstrumentes (12) ermittelt werden und abhängig davon das zumindest eine Hilfsinstrument (12) dem führenden Instrument (21) nachgeführt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Positionskoordinaten (x21, y21, z21) eines an einem aus dem Patientenkörper (5) herausragenden Abschnitts (12.2) des Hilfsinstrumentes (12) angeordneten und im dreidimensionalen Messraum (20) bewegten zweiten Sensorelementes (23) ermittelt werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass zusätzlich zu den ermitteltenen Positionskoordinaten (x11, y11, z11) des ersten Sensorelementes (22) die Positionskoordinaten (x21, y21, z21) des zweiten Sensorelementes (23) bei der Ermittlung der Positionskoordinaten (xHI, yHI, zHI) des Hilfsinstrumentes (12) ausgewertet werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Positionskoordinaten (xFI, yFI, zFI) der Spitze (21.1) des führenden Instrumentes (21) im Inneren des Patientenkörpers (5) anhand der ermittelten Positionskoordinaten (x11, y11, z11; x21, y21, z21) des ersten und/oder zweiten Sensorelementes (22, 23) bestimmt werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Positionskoordinaten (xHI, yHI, zHI) der Spitze (12.1) des Hilfsinstrumentes (12) im Inneren des Patientenkörpers (5) anhand der ermittelten Positionskoordinaten (x11, y11, z11; x21, y21, z21) des ersten und/oder zweiten Sensorelementes (22, 23) bestimmt werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Positionskoordinaten (x11, y11, z11; x21, y21, z21) des ersten und/oder zweiten Sensorelementes (22, 23) über ein elektromagnetisches und/oder optisches Erfassungssystem ermittelt werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Nachführung des Hilfsinstrumentes (12) im Patientenkörper (5) anhand der ermitteltenen Positionskoordinaten (x11, y11, z11; x21, y21, z21) des ersten und/oder zweiten Sensorelementes (22, 23) der Abstand (DIST) der beiden Spitzen des führenden Instrumentes (21.1) und des Hilfsinstrumentes (12.1) ermittelt wird, dass der Abstand (DIST) mit einem Sollabstand (DSOLL) verglichen wird und dass abhängig vom Vergleichsergebnis ein Steuersignal (ss) in der Steuereinheit (15) zur Steuerung der Nachführung des Hilfsinstrumentes (12) erzeugt wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass erst bei einem Überschreiten eines Referenzabstandes (DREF) durch den ermittelten Abstand (DIST) der beiden Spitzen des führenden Instrumentes (21.1) und des Hilfsinstrumentes (12.1) ein Steuersignal (ss) zur Nachführung des Hilfsinstrumentes (12) erzeugt wird.
  9. Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes (12) in Bezug auf ein führendes Instrument (21) bei einem medizinisch minimal-invasiven Eingriff, mit zumindest einer Steuereinheit (15) und einer zumindest eine Motoreinheit aufweisenden Kinematik (7, 8, 9, 10), wobei über die steuerbare Motoreinheit das zumindest eine Hilfsinstrument (12) entlang der Raumachsen (20.1) eines dreidimensionalen Messraums (20) bewegbar ist, und mit zumindest einem an einem Abschnitt (21.2) des führenden Instrumentes (21) angeordneten ersten Sensorelement (22) und mit einer in der Steuereinheit (15) vorgesehenen Bewertungsroutine (26) zur Ermittlung der Positionskoordinaten (x11, y11, z11) des im dreidimensionalen Messraum (20) bewegten ersten Sensorelementes (22), dadurch gekennzeichnet, dass der dreidimensionale Messraum (20) oberhalb des minimal-invasiven Eingriffsbereichs und außerhalb des Patientenkörpers (5) vorgesehen ist, dass die Steuereinheit (15) eine Auswerteroutine (27) zur Ermittlung der Positionskoordinaten (xHI, yHI, zHI) des Hilfsinstrumentes (12) anhand der ermitteltenen Positionskoordinaten (x11, y11, z11) des ersten Sensorelementes (22) aufweist und dass die Steuereinheit (15) eine Nachführungsroutine (28) zur Steuerung der Nachführung des zumindest einen Hilfsinstruments (12) nach dem führenden Instrument (21) abhängig von den ermittelten Positionskoordinaten (xHI, yHI, zHI) des Hilfsinstrumentes (12) aufweist.
  10. Operations-Assistenz-System nach Anspruch 9, dadurch gekennzeichnet, dass ein zweites Sensorelement (23) an einem aus dem Patientenkörper (5) herausragenden Abschnitt (12.2) des Hilfsinstrumentes (12) vorgesehen ist.
  11. Operations-Assistenz-System nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Bewertungsroutine (26) zur Ermittlung der Positionskoordinaten (x21, y21, z21) des im dreidimensionalen Messraum (20) bewegten zweiten Sensorelementes (23) vorgesehen ist.
  12. Operations-Assistenz-System nach Anspruch 11, dadurch gekennzeichnet, dass die Auswerteroutine (27) zur zusätzlichen Auswertung der Positionskoordinaten (x21, y21, z21) des zweiten Sensorelementes (23) für die Ermittlung der Positionskoordinaten (xHI, yHI, zHI) des Hilfsinstrumentes (12) vorgesehen ist.
  13. Operations-Assistenz-System nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass die Bewertungsroutine (26) zur Ermittlung der Positionskoordinaten (xFI, yFI, zFI) der Spitze (21.1) des führenden Instrumentes (21) im Inneren des Patientenkörpers (5) durch Auswertung der ermittelten Positionskoordinaten (x11, y11, z11; x21, y21, z21) des ersten und/oder zweiten Sensorelementes (22, 23) vorgesehen ist.
  14. Operations-Assistenz-System nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass die Bewertungsroutine (26) zur Ermittlung der Positionskoordinaten (xHI, yHI, zHI) der Spitze (12.1) des Hilfsinstrumentes (12) im Inneren des Patientenkörpers (5) durch Auswertung der ermittelten Positionskoordinaten (x11, y11, z11; x21, y21, z21) des ersten und/oder zweiten Sensorelementes (22,23) vorgesehen ist.
  15. Operations-Assistenz-System nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass zur Ermittlung der Positionskoordinaten (x11, y11, z11; x21, y21, z21) des ersten und/oder zweiten Sensorelementes (22,23) ein elektromagnetisches und/oder optisches Erfassungssystem vorgesehen ist.
  16. Operations-Assistenz-System nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass der dreidimensionale Messraum (20) als gepulstes Gleichstrommagnetfeld oder als optischer Messraum ausgestaltet ist.
  17. Operations-Assistenz-System nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass das Hilfsinstrument (12) ein bildgebendes Instrument, insbesondere die Optik (12.1) einer Kamera (13) oder dergleichen ist.
DE102004052753A 2004-10-30 2004-10-30 Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff Ceased DE102004052753A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004052753A DE102004052753A1 (de) 2004-10-30 2004-10-30 Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004052753A DE102004052753A1 (de) 2004-10-30 2004-10-30 Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff

Publications (1)

Publication Number Publication Date
DE102004052753A1 true DE102004052753A1 (de) 2006-05-11

Family

ID=36217079

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004052753A Ceased DE102004052753A1 (de) 2004-10-30 2004-10-30 Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff

Country Status (1)

Country Link
DE (1) DE102004052753A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008016146A1 (de) 2008-03-28 2009-10-15 Aktormed Gmbh Verfahren zur Führung eines chirurgischen Hilfsinstrumentes mittels eines Operations-Assistenz-Systems
DE102009007986A1 (de) * 2009-02-07 2010-08-12 Radl, Bernd, Dr. Vorrichtung zur Beleuchtung eines Operationsfeldes eines sterilen Operationsraumes
DE102010029275A1 (de) * 2010-05-25 2011-12-01 Siemens Aktiengesellschaft Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar
US20150335850A1 (en) * 2013-01-29 2015-11-26 Koninklijke Philips N.V. Control of neonatal oxygen supply
WO2017186414A1 (de) * 2016-04-28 2017-11-02 Aktormed Gmbh Operations-assistenz-system und verfahren zur erzeugung von steuersignalen zur ansteuerung einer motorisch gesteuerten bewegbaren roboterkinematik eines derartigen operations-assistenz-systems
DE102018125592A1 (de) * 2018-10-16 2020-04-16 Karl Storz Se & Co. Kg Steuerungsanordnung, Verfahren zur Steuerung einer Bewegung eines Roboterarms und Behandlungsvorrichtung mit Steuerungsanordnung

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008016146A1 (de) 2008-03-28 2009-10-15 Aktormed Gmbh Verfahren zur Führung eines chirurgischen Hilfsinstrumentes mittels eines Operations-Assistenz-Systems
DE102008016146B4 (de) * 2008-03-28 2010-01-28 Aktormed Gmbh Operations-Assistenz-System zur Führung eines chirurgischen Hilfsinstrumentes
US8433389B2 (en) 2008-03-28 2013-04-30 Robert Geiger Surgery assistance system for guiding a surgical instrument
DE102009007986A1 (de) * 2009-02-07 2010-08-12 Radl, Bernd, Dr. Vorrichtung zur Beleuchtung eines Operationsfeldes eines sterilen Operationsraumes
DE102010029275A1 (de) * 2010-05-25 2011-12-01 Siemens Aktiengesellschaft Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar
US9066737B2 (en) 2010-05-25 2015-06-30 Siemens Aktiengesellschaft Method for moving an instrument arm of a laparoscopy robot into a predeterminable relative position with respect to a trocar
US20150335850A1 (en) * 2013-01-29 2015-11-26 Koninklijke Philips N.V. Control of neonatal oxygen supply
US10272219B2 (en) * 2013-01-29 2019-04-30 Koninklijke Philips N.V. Control of neonatal oxygen supply with artifact detection
WO2017186414A1 (de) * 2016-04-28 2017-11-02 Aktormed Gmbh Operations-assistenz-system und verfahren zur erzeugung von steuersignalen zur ansteuerung einer motorisch gesteuerten bewegbaren roboterkinematik eines derartigen operations-assistenz-systems
DE102018125592A1 (de) * 2018-10-16 2020-04-16 Karl Storz Se & Co. Kg Steuerungsanordnung, Verfahren zur Steuerung einer Bewegung eines Roboterarms und Behandlungsvorrichtung mit Steuerungsanordnung
EP3639782A1 (de) * 2018-10-16 2020-04-22 Karl Storz SE & Co. KG Steuerungsanordnung zur steuerung einer bewegung eines roboterarms und behandlungsvorrichtung mit steuerungsanordnung

Similar Documents

Publication Publication Date Title
DE19961971B4 (de) Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
DE69826611T2 (de) Rahmenlose stereotaktische chirurgische Vorrichtung
EP3363358B1 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
EP1872735B1 (de) Verfahren zum automatischen Identifizieren von Instrumenten bei der medizinischen Navigation
DE102015109371A1 (de) Vorrichtung und Verfahren zur robotergestützten Chirurgie
EP2575662A1 (de) Verfahren zum bewegen eines instrumentenarms eines laparoskopieroboters in eine vorgebbare relativlage zu einem trokar
WO2008058520A2 (de) Vorrichtung zur bereitstellung von bildern für einen operateur
DE4412605A1 (de) Stereotaktischer Adapter sowie Verfahren zu dessen Betrieb
WO2014001536A1 (de) Mobil handhabbare vorrichtung zur bearbeitung oder beobachtung eines körpers
EP0682919A2 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
DE102013213727A1 (de) Interventionelles Bildgebungssystem
DE102013108115A1 (de) Verfahren und Vorrichtung zum Festlegen eines Arbeitsbereichs eines Roboters
WO2010052155A1 (de) Verfahren zum betreiben eines medizinischen navigationssystems und medizinisches navigationssystem
DE102014210046A1 (de) Operationsmikroskopsystem
DE4412073A1 (de) Operationsmikroskop-Einheit
DE102004052753A1 (de) Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff
DE102011050240A1 (de) Vorrichtung und Verfahren zur Bestimmung der relativen Position und Orientierung von Objekten
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE102014210056A1 (de) Verfahren zur Ansteuerung eines chirurgischen Geräts sowie chirurgisches Gerät
DE102010018291B4 (de) Navigationssystem und Röntgensystem
EP4284290A1 (de) Chirurgisches assistenzsystem mit operationsmikroskop und kamera und darstellungsverfahren
DE102010042372A1 (de) Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
DE102020205546A1 (de) Überwachungsverfahren und medizinisches System
DE10235795A1 (de) Medizinische Vorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8181 Inventor (new situation)

Inventor name: KNAPP, JUERGEN M., 93138 LAPPERSDORF, DE

Inventor name: SCHNEIDER, ARMIN, DIPL.-ING.(FH), 80333 MUENCHEN, DE

Inventor name: FEUSSNER, PROF. DR.MED., HUBERTUS ALFONS ERNST JOS

Inventor name: GEIGER, ROBERT, 94526 METTEN, DE

8131 Rejection