-
Die vorliegende Erfindung bezieht sich auf ein Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments.
-
Darüber hinaus betrifft die vorliegende Erfindung eine entsprechende Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments.
-
Die Durchführung von medizinischen Interventionen im Inneren eines menschlichen oder tierischen Körpers erfolgt heutzutage nicht nur durch offene Operationen, sondern bevorzugt mit Hilfe von minimal-invasiv eingesetzten Instrumenten wie Endoskopen oder Laparoskopen. Diese können unmittelbar durch den behandelnden Operateur oder durch Vermittlung eines Robotersystems erfolgen.
-
Die kontrollierte Manipulation der interventionellen Instrumente erfolgt unter Sichtkontrolle, wobei entweder ein Mikroskopsystem oder eine an der Spitze des Instruments angeordnete Kamera verwendet wird. Das von der Kamera erzeugte Bild wird auf einem Bildschirm dargestellt oder durch ein Okular betrachtet.
-
Die dargestellten Bilder zeigen die inneren Organe und die Interventionsinstrumente in der optischen Aufsicht. Dadurch ist eine eindeutige Korrelation von zu behandelndem Objekt und Instrument gegeben. Allerdings gilt dies nur für die Oberfläche der Organe. Innerhalb oder hinter den Organen befindliche Strukturen wie z.B. dort verlaufende Nerven und Gefäße oder anderes empfindliches Gewebe sind nicht sichtbar und können somit bei einem Eingriff verletzt oder zerstört werden.
-
Einzelne Strukturen, wie z.B. Adern, können sich auf der Oberfläche des zu behandelnden Organs abzeichnen und können somit vom Operateur berücksichtigt werden. Vor allem aber sind die anatomischen Kenntnisse des Arztes gefordert, der genau wissen muss, an welcher Stelle empfindliche Strukturen zu erwarten sind.
-
Die Aufgabe der vorliegenden Erfindung besteht nun darin, die bildunterstützte Navigation eines endoskopischen Instruments weiter zu verbessern.
-
Die Erfindung löst diese Aufgabe mit einem Verfahren mit den Merkmalen des ersten unabhängigen Patentanspruchs und einer Vorrichtung mit den Merkmalen des zweiten unabhängigen Patentanspruchs.
-
Der Grundgedanke der Erfindung ist ein Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments, das folgende Verfahrensschritte umfasst:
- S1) Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches;
- S2) Erfassen eines Bildes in einer optischen Aufsicht von zumindest einem Ausschnitt des Untersuchungsbereiches durch ein optisches Erfassungssystem eines endoskopischen Instruments;
- S3) Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments;
- S4) Registrierung des, durch das optische Erfassungssystem des endoskopischen Instruments, erfassten Bildes (31; 41) mit dem 3D-Datensatz;
- S5) Darstellung des erfassten Bildes mit zumindest einem Teil des überlagerten 3D-Datensatzes;
- S6) Beenden des Verfahrens, wenn ein Abbruchkriterium erfüllt ist, ansonsten Sprung zu Verfahrensschritt S2.
-
Im ersten Verfahrensschritt wird ein 3D-Datensatz, d.h. ein 3D-Bild mit gegebenenfalls zusätzlichen Informationen, wie die räumliche Lage oder die Ausdehnung des aufgenommenen Bereiches, eines Untersuchungsbereiches akquiriert. Bei dem Untersuchungsbereich kann es sich beispielsweise um einen Teil eines Patienten handeln, der untersucht werden soll oder an dem ein chirurgischer Eingriff vorgenommen werden soll. Der 3D-Datensatz kann durch Computertomographie (CT), Magnetresonanztomographie (MR) oder ein anderes, räumliches bildgebendes Verfahren gewonnen werden. Eine weitere Möglichkeit besteht darin, ein Röntgengerät zu verwenden. Durch eine geeignete Serie von Röntgenaufnahmen aus verschiedenen Richtungen rund um den Patienten ist nach dem Stand der Technik ein 3D-Datensatz berechenbar.
-
Im zweiten Verfahrensschritt wird mit Hilfe eines optischen Erfassungssystems eines endoskopischen Instruments ein Bild von dem Untersuchungsbereich oder einem Ausschnitt davon erfasst. Wie eingangs erwähnt, besitzen moderne Endoskope meist ein optisches Erfassungssystem, das das Bild vor dem Endoskop entweder optisch an das außerhalb des Untersuchungsbereichs, insbesondere außerhalb des Patienten, liegende Ende des Endoskops weiterleitet, wo eine Videokamera angeschlossen ist, oder es ist eine Kamera direkt am im Untersuchungsbereich liegenden Ende des Endoskops angebracht, die das Bild dann elektronisch weiterleitet. Prinzipbedingt ist das Bild eine optische Aufsicht. Unter einem endoskopischen Instrument wird insbesondere ein schlauch- oder stabähnliches Gerät mit einer Länge von ca. 0,3 bis 1,5 m und einem Durchmesser von ca. 1 bis 20 mm verstanden, das das beschriebene optische Erfassungssystem umfasst. Weiter kann das endoskopische Instrument integrierte oder über Arbeitskanäle einführbare mikromechanische Geräte, wie kleine Zangen oder Greifer, umfassen, mit denen im Untersuchungsbereich untersuchende oder intervenierende Vorgänge durchführbar sind.
-
Im dritten Verfahrensschritt werden die räumliche Lage und die Orientierung bzw. die Ausrichtung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments bestimmt. Das optische Erfassungssystem kann fest mit dem Restteil des endoskopischen Instruments verbunden sein oder, z.B. durch Gelenke, in einer eindeutigen, mechanischen Beziehung dazu stehen. Vorstellbar ist auch, dass beispielsweise die Ausrichtung des optischen Erfassungssystems variabel einstellbar ist und deshalb dessen Ausrichtung neben der Ausrichtung des endoskopischen Instruments erfasst wird.
-
Im vierten Verfahrensschritt wird das, durch das optische Erfassungssystem des endoskopischen Instruments, erfasste Bild mit dem 3D-Datensatz registriert, das heißt, der 3D-Datensatz wird dem Bild, das durch das optische Erfassungssystem des endoskopischen Instruments erfasst wurde, überlagert. Dabei ist wesentlich, dass der 3D-Datensatz in Position, Größe, Projektion und Orientierung mit der räumlichen Lage und der Orientierung des optischen Erfassungssystems des endoskopischen Instruments möglichst in Übereinstimmung gebracht wird. Insbesondere müssen die Koordinatensysteme des radiologischen Bildes und des optischen Bildes und ihre relative Lage zueinander bekannt sein oder die Überlagerung erfolgt mit Hilfe von Bildmerkmalen, die sich in beiden Bildern wiederfinden. Diese sogenannte Bildregistrierung ist eine in der medizinischen Bildverarbeitung gängige Aufgabenstellung für die es zahlreiche Lösungsvorschläge gibt. Eine Lösung ist beispielsweise in der
DE 10 2005 035 430 A1 beschrieben.
-
Im fünften Verfahrensschritt wird das mit dem Endoskop erfasste Bild mit dem überlagerten 3D-Datensatz oder einem Teil davon dargestellt. Zweckmäßig erfolgt die Darstellung auf einem Bildschirm.
-
Das Verfahren wird beendet, wenn ein Abbruchkriterium erfüllt ist. Ein Abbruchkriterium kann das Erreichen einer vorgebbaren Anzahl an Verfahrensdurchläufen, das Erreichen einer vorgebbaren Zeitdauer oder das Betätigen eines Tasters oder eines Schalters sein. Ist das Abbruchkriterium nicht erfüllt, wird wieder zum zweiten Verfahrensschritt verzweigt.
-
Vorzugsweise umfasst in Verfahrensschritt S5 der Teil des überlagerten 3D-Datensatzes denjenigen Teil, der in Vorwärtsrichtung des optischen Erfassungssystems des endoskopischen Instruments liegt. Hierunter ist zu verstehen, dass bei der Darstellung der Überlagerung von 3D-Datensatz und dem Bild des endoskopischen Instruments nur der Teil des 3D-Datensatzes dargestellt wird, der in der Vorwärtsrichtung der Kamera des endoskopischen Instruments liegt. Somit werden Bereiche die quasi „hinter“ der Kamera des Endoskops liegen nicht angezeigt, sondern nur solche, die „in Blickrichtung“ der Endoskopkamera liegen.
-
Günstigerweise werden ein oder mehrere weitere 3D-Datensätze des Untersuchungsbereiches oder eines Teils davon in den ursprünglichen 3D-Datensatz co-registriert. Damit kann der ursprüngliche 3D-Datensatz durch weitere 3D-Datensätze, die z.B. durch andere bildgebende Verfahren gewonnen wurden, ergänzt oder erweitert werden.
-
Mit besonderem Vorteil wird vor Verfahrensschritt S2 der 3D-Datensatz segmentiert. Insbesondere können Organe, Nerven, und/oder Gefäße segmentiert werden. In die nachfolgenden Verfahrensschritte geht dann der segmentierte 3D-Datensatz ein. Bildsegmentierung ist ein bekanntes Gebiet der medizinischen Bildverarbeitung. Prinzipiell wird dabei ein Bild, das auch räumlich sein kann, analysiert und besondere Objekte, wie Organe, Nerven, Gefäße, pathologische oder körperfremde Objekte, extrahiert. Die Analyse kann auch eine Klassifikation der Objekte umfassen, z.B. bezüglich mechanischer Eigenschaften oder des Risikos für einen Patienten bei einer Läsion des Objektes. Der Vorteil dieses Verfahrensmerkmals liegt unter anderem darin, dass segmentierte Objekte leichter und für einen menschlichen Betrachter übersichtlicher dem Bild des endoskopischen Instruments überlagert werden können.
-
Verzugsweise ist im 3D-Datensatz manuell oder automatisch wenigstens ein Bereich, insbesondere ein Organ, eine Nervenbahn, ein Gefäß und/oder ein anderes, durch ein endoskopisches Instrument leicht verletzbares, Objekt markiert. Die manuelle Markierung kann z.B. durch einen Arzt erfolgt sein, der den 3D-Datensatz oder segmentierte Objekte daraus an einem Monitor studiert und durch Eingabe mit einem Computereingabemittel besondere Objekte gekennzeichnet hat. Bei der späteren Ansicht des überlagerten Bildes der Endoskopkamera sind die markierten Bereiche dann sehr leicht identifizierbar. Eine automatische Markierung könnte dadurch geschehen, dass segmentierte Objekte, die als besonders gefährdet deklariert wurden, wie z.B. Blutgefäße, markiert werden. Durch ein Endoskop leicht verletzbare Objekte können beispielsweise durch eine Testreihe ermittelt werden, bei der z.B. die benötigte Kraft einer Endoskopspitze zum Durchdringen eines Objektes gemessen wird. Objekte, deren Durchdringungskraft z.B. kleiner als die von Muskelgewebe ist, könnten dann als „leicht verletzbare Objekte“ deklariert werden. Weiter können alle segmentierten Objekte automatisch markiert werden.
-
Eine bevorzugte Ausgestaltung der Erfindung sieht vor, dass ein optischer und/oder akustischer Hinweis ausgegeben wird, wenn das endoskopische Instrument auf einen der im 3D-Datensatz markierten Bereiche ausgerichtet ist. Mit der Kenntnis über die räumliche Lage und die Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments ist es möglich, einen frühen Hinweis oder eine Warnung auszugeben, wenn das endoskopische Instrument auf einen markierten und damit möglicherweise gefährdeten Bereich gerichtet ist. Ein optischer Hinweis könnte darin bestehen, dass der betreffende markierte Bereich in einer auffälligen Farbe oder in einer blinkenden Darstellung gezeichnet wird. Oder es wird in der Bilddarstellung ein Hinweistext eingeblendet. Ein akustischer Hinweis könnte darin bestehen, dass ein Warnton ausgegeben wird, der lauter oder in der Tonlage höher wird, je genauer das endoskopische Instrument auf einen markierten Bereich gerichtet ist.
-
In einer weiteren vorteilhaften Ausgestaltung wird der optische und/oder akustische Hinweis ausgegeben, wenn die Bewegung des endoskopischen Instruments auf einen der im 3D-Datensatz markierten Bereiche ausgerichtet ist. Hier geht demnach die Ableitung der räumlichen Lage nach der Zeit ein. Wird erkannt, dass sich das endoskopischen Instrument auf einen markierten und damit möglicherweise gefährdeten Bereich zu bewegt, wird eine Warnung, wie zuvor beschrieben, ausgegeben.
-
Vorzugsweise gehen in die Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments mindestens ein optischer Marker, mindestens ein elektromagnetischer Marker und/oder mindestens ein RFID-Tag mit zugehörigem Empfängersystem ein. Für die Ortung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments bieten sich verschiedene Ortungssysteme an.
-
In einer Ausführung können am distalen Ende des endoskopischen Instruments optische Marker angebracht sein, die eine Ortung mit Hilfe eines Kamerasystems ermöglichen, wie es z.B. von der Firma Northern Digital Incorporated, NDI, in einem Produkt „Polaris“ gewerblich angeboten wird.
-
In einer anderen Ausführung kann an der Spitze des endoskopischen Instruments eine oder mehrere Spulen angeordnet sein, in denen durch ein elektromagnetisches Feld außerhalb des Patienten angebrachten Sendespulen eine Spannung induziert wird, die die Bestimmung von Position und Lage des endoskopischen Instruments ermöglicht. Ein solches System wird beispielsweise von der Firma Northern Digital Incorporated, NDI, in einem Produkt „Aurora“ gewerblich angeboten.
-
In noch einer weiteren Ausführung befindet sich an der Spitze des endoskopischen Instruments ein Hochfrequenz-Transponder, ein sogenannter RFID-Tag, für Radio Frequency Indentification Tag. Aus der Offenlegungsschrift
DE 10 2006 029 122 A1 ist bekannt, die Position eines Hochfrequenz-Transponders (RFID-Tag) mit Hilfe einer phasenempfindlichen Auswertung des Empfangssignals zu bestimmen. Die Antennen der Transponder werden durch ein Hochfrequenz-Feld angeregt und versorgen die Transponder mit elektrischer Energie. Die Transponder senden ihrerseits ein Lokalisierungssignal aus, das von mehreren Empfangseinheiten phasensensitiv empfangen wird. Nach einem in der DE 10 2006 029 122 A1 näher beschriebenen Verfahren wird der genaue Ort jedes Transponders bestimmt.
-
Eine weitere vorteilhafte Ausgestaltung der Erfindung sieht vor, dass neben der Darstellung des erfassten Bildes mit zumindest einem Teil des überlagerten 3D-Datensatzes auch zumindest ein Teil des endoskopischen Instruments visualisiert ist.
-
Dadurch, dass die räumliche Lage und die Orientierung des endoskopischen Instruments in einem zuvor beschriebenen Verfahren bestimmt sind, kann das endoskopische Instrument ebenfalls im 3D-Datensatz des Untersuchungsbereiches, z.B. auf einem Monitor, angezeigt werden. Mit der Kenntnis des geometrischen Aufbaus des endoskopischen Instruments können gleichermaßen starre wie flexible Instrumente visualisiert werden. Dies führt zu einer weiteren Verbesserung der bildunterstützten Navigation des endoskopischen Instruments.
-
Ein weiterer Grundgedanke der Erfindung betrifft eine Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments, das ein Mittel zum Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches, ein endoskopisches Instrument mit einem optischen Erfassungssystem zum Erfassen eines Bildes und ein Steuer- und Anzeigemittel umfasst. Weiter umfasst die Vorrichtung erfindungsgemäß ein Ortungssystem zum Bestimmen der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments. Erfindungsgemäß ist das Steuer- und Anzeigemittel dazu ausgebildet, ein zuvor beschriebenes erfindungsgemäßes Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments auszuführen.
-
Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar.
-
Weitere vorteilhafte Weiterbildungen ergeben sich aus den nachfolgenden Figuren samt Beschreibung. Es zeigen:
-
1 ein exemplarisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens;
-
2 ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments;
-
3 ein Ausführungsbeispiel für ein Bild eines endoskopischen Instruments, das mit segmentierten Strukturen aus einem 3D-Datensatz überlagert ist;
-
4 ein Ausführungsbeispiel für ein Bild eines endoskopischen Instruments, das mit segmentierten Strukturen aus einem 3D-Datensatz überlagert ist und einen Warnhinweis umfasst.
-
1 zeigt ein exemplarisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens. Es umfasst die Verfahrensschritte S1 bis S6, die im Einzelnen lauten:
- S1) Akquirieren eines 3D-Datensatzes eines Untersuchungsbereiches;
- S2) Erfassen eines Bildes in einer optischen Aufsicht von zumindest einem Ausschnitt des Untersuchungsbereiches durch ein optisches Erfassungssystem eines endoskopischen Instruments;
- S3) Bestimmung der räumlichen Lage und der Orientierung des endoskopischen Instruments und des optischen Erfassungssystems des endoskopischen Instruments;
- S4) Registrierung des, durch das optische Erfassungssystem des endoskopischen Instruments, erfassten Bildes (31; 41) mit dem 3D-Datensatz;
- S5) Darstellung des erfassten Bildes mit zumindest einem Teil des überlagerten 3D-Datensatzes;
- S6) Beenden, „End“, des Verfahrens, wenn ein Abbruchkriterium erfüllt, „Y“, ist, ansonsten, „N“, Sprung zu Verfahrensschritt S2.
-
In 2 ist ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung 2 zur bildunterstützten Navigation eines endoskopischen Instruments 10 dargestellt. Es zeigt einen Interventions-Arbeitsplatz mit einem Untersuchungsobjekt, hier einem Patienten 14, der auf einem Tisch 6 liegt, der von einer Säule 7 getragen wird. Ein C-Bogen-Röntgengerät mit einem C-Bogen 3, an dem ein Röntgenstrahler 5 und ein Röntgendetektor 4 angeordnet sind, dient der radiologischen Bildgebung. Durch eine geeignete Serie von Röntgenaufnahmen aus verschiedenen Richtungen rund um den Patienten ist nach dem Stand der Technik ein 3D-Datensatz eines Untersuchungsbereiches 13 berechenbar und über ein erstes Verbindungsmittel 16 einem Steuer- und Anzeigemittel 15 zuführbar. Der minimal-invasive Eingriff wird mit Hilfe eines endoskopischen Instruments 10, hier ein Laparoskop, vorgenommen, das eine Kamera 11 und ein Interventions- oder Untersuchungsteil 12 umfasst. Die Kamera 11 ist an dem Ende des Laparoskops, das zum Untersuchungsbereich 13 ausgerichtet ist, angeordnet und nimmt Bilder eines zu behandelnden Organs, das innerhalb des Untersuchungsbereiches 13 liegt, auf. Die Bilder können auf dem Steuer- und Anzeigemittel 15, hier ein Computer mit Bildschirm, angezeigt werden. Weiter sind an dem Laporoskop 10 RFID-Tags 20 angeordnet, die es mit den im Raum angeordneten Messvorrichtungen 19 und mit Hilfe eines Auswertesystems 18 ermöglichen, den Ort und die Orientierung des Laparoskops 10 zu bestimmen. Die Daten des Auswertesystems 18 werden über ein zweites Verbindungsmittel 17 dem Steuer- und Anzeigemittel 15 zugeführt. Das Steuer- und Anzeigemittel 15 ist dazu ausgebildet, ein zuvor beschriebenes erfindungsgemäßes Verfahren zur bildunterstützten Navigation eines endoskopischen Instruments auszuführen.
-
3 zeigt ein Ausführungsbeispiel 30 für ein Bild 31 eines endoskopischen Instruments, das mit segmentierten Strukturen 32 aus einem 3D-Datensatz überlagert ist. Ausgehend von einem minimal-invasiven Interventionsinstrument, wie einem Endoskop oder einem Laparoskop, wird einem, von dem optischen System des Instruments erzeugten, Bild 31 ein radiologisches Bild dergestalt überlagert, dass für einen Operateur, der einen Eingriff vornimmt, sichtbar wird, welche anatomischen Strukturen sich in Vorwärtsrichtung seines Eingriffs befinden. Dazu definiert der Operateur zunächst, in welchem Volumen, d.h. in welchem Untersuchungsbereich, die vorhandenen Strukturen visualisiert werden sollen. Vor der Durchführung des Eingriffs wird, z.B. mit Hilfe eines C-Bogen-Röntgengerätes, eine 3D-Aufnahme des interessierenden Organs erstellt. Die räumliche Lage des 3D-Datensatzes ist bekannt, da durch die Kalibrierung des Systems das Iso-Zentrum festgelegt wurde. Da diese 3D-Aufnahme erst unmittelbar vor dem Eingriff, mit dem Patienten gelagert und der Bauchhöhle aufgeblasen, erfolgt, werden alle anatomischen Gegebenheiten lagerichtig dargestellt. Das radiologische Bild umfasst beispielsweise ein Gefäßsystem 32 innerhalb des zu operierenden Organs. Dieses Gefäßsystem 32 wird durch eine Bildsegmentierung segmentiert. Die Kamera des Laparoskops erfasst einen Bildausschnitt 31 des Operationsgebietes. Ein Ortungssystem bestimmt den Ort und die Orientierung des Laparoskops, so dass nun bekannt ist, wie dieser Bildausschnitt räumlich angeordnet ist. Dies ermöglicht unter anderem, bei einer Drehung des Laparoskops, das dargestellte Bild auf einem Bildschirm ebenfalls in entsprechender Richtung zu drehen. So kann beispielsweise die Drehung dergestalt erfolgen, dass die kraniale Richtung auf dem Bildschirm nach oben dargestellt wird. Erfindungsgemäß werden die 3D-Daten des Untersuchungsgebiets vor dem Laparoskop, das von der Kamera erfasst wird, in das Kamerabild lagerichtig eingeblendet oder ihm überlagert.
-
In 4 schließlich ist ein Ausführungsbeispiel 40 für ein Bild 41 eines endoskopischen Instruments, das mit segmentierten Strukturen 42 aus einem 3D-Datensatz überlagert ist und einen Warnhinweis 44 umfasst, abgebildet. Die Ausführungen aus 3 sind auch für 4 zutreffend. Weiter wurde ein präoperativ aufgenommener Datensatz, z.B. aus einem CT- oder MR-Datensatz, der zusätzliche Informationen z.B. ein Gefäß 45, in den ursprünglich aufgenommenen intra-operativen 3D-Datensatz co-registriert. Das mit den beiden 3D-Datensätzen überlagerte Bild 40 zeigt weiter als Teil des endoskopischen Intruments ein mikromechanisches Instrument, z.B. ein Greifer, das nachfolgend als Interventionsinstrument 43 bezeichnet wird. Mit den durch das Ortungssystem bekannten Informationen über Ort und Orientierung des Interventionsinstruments 43 und deren zeitlichem Verlauf, lässt sich, z.B. unter der Annahme, dass sich die Bewegung gleichmäßig fortsetzt, vorausberechnen, welchen Weg das verwendete Interventionsinstrument 43 bei progressivem Vorschub nehmen würde und welche Strukturen es damit erreichen würde. Der Operateur hat die Strukturen 42 und 45 als Strukturen, die nicht berührt oder lädiert werden dürfen, markiert. Der Operateur wird somit in die Lage versetzt, auf Basis der vorliegenden radiologischen Datensätze in den Bildern zu vermeidende Areale zu markieren. Alternativ kann auf der Basis der Segmentierung des radiologischen Datensatzes eine Deklaration von gefährdeten Strukturen erfolgen. Das System ist in der Lage, während des Eingriffs zu warnen, falls das Interventionsinstrument diesen Arealen zu nahe kommt, d.h. falls beispielsweise eine vorgebbare Distanz unterschritten ist. Im Ausführungsbeispiel 40 bewegt sich das Interventionsinstrument 43 in Richtung 46, so dass das System eine potenzielle Berührung oder Läsion des Bereiches 47 durch einen optischen Warnhinweis 44 in Form z.B. eines blinkenden, sternförmigen Piktogramms, signalisiert. Der Bereich 45 ist, erkennbar durch die Ausrichtung und die Bewegungsrichtung 46 des Interventionsinstruments 43, nicht durch das Interventionsinstrument 43 gefährdet, so dass hier keine Warnung erfolgt.
-
Zusammenfassend kann man sagen, dass durch die erfindungsgemäße Überlagerung von optischen Bildern, wie sie von minimalinvasiven Interventionsvorrichtungen erzeugt werden, mit radiologischen Bildern, hinter der Oberfläche der zu behandelnden Organe liegende Strukturen sichtbar gemacht werden können. Dies erleichtert minimal-invasive Eingriffe zielgerichtet, genau und unter Vermeidung der Erzeugung unerwünschter Läsionen vorzunehmen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102005035430 A1 [0013]
- DE 102006029122 A1 [0025]