DE102010062340A1 - Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung - Google Patents

Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung Download PDF

Info

Publication number
DE102010062340A1
DE102010062340A1 DE102010062340A DE102010062340A DE102010062340A1 DE 102010062340 A1 DE102010062340 A1 DE 102010062340A1 DE 102010062340 A DE102010062340 A DE 102010062340A DE 102010062340 A DE102010062340 A DE 102010062340A DE 102010062340 A1 DE102010062340 A1 DE 102010062340A1
Authority
DE
Germany
Prior art keywords
instrument
dimensional
representation
data set
viewing direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010062340A
Other languages
English (en)
Inventor
Dr. Klingenbeck Klaus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102010062340A priority Critical patent/DE102010062340A1/de
Priority to US13/306,169 priority patent/US20120143045A1/en
Publication of DE102010062340A1 publication Critical patent/DE102010062340A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/467Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/503Clinical applications involving diagnosis of heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography

Abstract

Die Erfindung betrifft ein Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments (7), insbesondere eines Katheters (8), in wenigstens einem Hohlorgan in einem Eingriffsbereich (17) eines Körpers, bei dem aus einem dreidimensionalen Datensatz (16) des Eingriffsbereichs (17) und die aktuelle Position des Instruments (7) beschreibenden Darstellungsdaten (23) eine Darstellung (24) der aktuellen Position des Instruments (7) in dem Hohlorgan erzeugt wird, wobei automatisch wenigstens ein die Erzeugung und/oder Anzeige der Darstellung (24) beeinflussender Geometrieparameter (28) unter Berücksichtigung von die aktuelle dreidimensionale Position und die aktuelle dreidimensionale Orientierung einer Spitze (10) des Instruments (7) beschreibenden Positionsdaten (26) des Instruments (7) angepasst wird und die den Geometrieparametern (28) entsprechende Darstellung (24) angezeigt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments, insbesondere eines Katheters, in wenigstens einem Hohlorgan in einem Eingriffsbereich eines Körpers, bei dem aus einem dreidimensionalen Datensatz des Eingriffsbereichs und die aktuelle Position des Instruments beschreibenden Darstellungsdaten eine Darstellung der aktuellen Position des Instruments in dem Hohlorgan erzeugt wird, sowie eine medizinische Untersuchungseinrichtung zur Durchführung des Verfahrens.
  • Bei minimalinvasiven Eingriffen wird mittels eines medizinischen Instruments, beispielsweise eines Katheters oder eines Endoskops, in einem Hohlorgan eines Patienten, insbesondere den Blutgefäßen bzw. dem Herzen, navigiert. Ein Beispiel für einen solchen Vorgang ist das Einbringen von Ablationskathetern in Herzkammern, beispielsweise zur Behandlung von Vorhofflimmern im linken Vorhof.
  • Um das Instrument tatsächlich an den richtigen Zielpunkt führen zu können, um dort die Behandlung vorzunehmen, wurden Verfahren zur Bildunterstützung der Navigation des Instruments vorgeschlagen, bei denen die Lage des Instruments, meist konkret der Instrumentenspitze, in einer dreidimensionalen Darstellung des Hohlorgans visualisiert werden soll. Hierzu wird ein dreidimensionaler Datensatz des Eingriffsbereichs verwendet, der das wenigstens eine Hohlorgan, durch das das Instrument navigiert werden soll, deutlich zeigt. Der dreidimensionale Datensatz kann dabei aus wenigstens einem Bilddatensatz gewonnen werden oder es kann unmittelbar ein Bilddatensatz verwendet werden, beispielsweise ein MR-Datensatz, ein CT-Datensatz oder dergleichen. Meist werden hierfür kontrastmittelverstärkte 3-D-Aufnahmen angefertigt, in denen das betreffende Hohlorgan mit bekannten Verfahren segmentiert wird. Das Ergebnis der Segmentierung ist ein dreidimensionales Abbild der Innenfläche des Organs, beispielsweise des Endokards des Vorhofs.
  • Die Echtzeitkontrolle der Navigation des Instruments wird üblicherweise durch die Aufnahme von Röntgendurchleuchtungsbildern (Fluoroskopiebildern), also zweidimensionaler Röntgenbilder, erreicht, wobei durch eine 2-D/3-D-Registrierung das Instrument geometrisch exakt im dreidimensionalen Raum gemeinsam mit dem dreidimensionalen Datensatz visualisiert werden kann. Zwar ist es auch bekannt, die Position des Instruments über ein Positionsbestimmungssystem, welches beispielsweise sensorbasiert arbeitet, zu ermitteln, jedoch wird die Aufnahme zweidimensionaler Durchleuchtungsbilder meist bevorzugt, nachdem die dreidimensionalen Daten des Datensatzes statisch sind und die Zuordnung der Position ungenau sein kann, insbesondere dann, wenn in stark bewegten Eingriffsbereichen, beispielsweise am Herzen, gearbeitet werden soll. In zweidimensionalen Durchleuchtungsbildern ist die Bewegung selbst zu sehen. Eine teilweise verwendete Alternative zu Durchleuchtungsaufnahmen sind Ultraschallbilder.
  • Wie bereits erwähnt, ist es bekannt, eine Darstellung der aktuellen Position und Orientierung des Instruments in dem Hohlorgan zu erzeugen, indem letztlich der dreidimensionale Datensatz des Eingriffsbereichs und die Darstellungsdaten, die die Position und Orientierung des Instruments, insbesondere der Instrumentenspitze, beschreiben, wobei der dreidimensionale Datensatz und die Darstellungsdaten miteinander registriert sind, fusioniert werden. Die Darstellung kann dann auf einer Anzeigevorrichtung, beispielsweise einem Monitor, der die Intervention durchführenden Person zur Anzeige gebracht werden.
  • Das Problem hierbei ist jedoch, dass es vorkommen kann, dass in den dreidimensionalen Datensätzen bekannte Strukturen das Abbild des Instruments in der Darstellung überdecken können. Beispielsweise kann sich eine Katheterspitze an der Hinter wand des Vorhofes befinden, aber von der Vorderwand des Vorhofes derart überlagert werden, dass der in die Darstellung eingeblendete Katheter nicht mehr sichtbar ist. Zur Lösung dieser Problematik wurde vorgeschlagen, die Transparenz der in der Darstellung gezeigten anatomischen Strukturen zu erhöhen, womit sich jedoch insgesamt eine schlechtere Erkennbarkeit der Gesamtdarstellung ergibt.
  • Daher wird es allgemein bevorzugt, sogenannte Schnittebenen (Clip Planes) einzustellen, die nicht in die Darstellung zu übernehmende Bereiche des dreidimensionalen Datensatzes definieren. Auf diese Weise wird es möglich, in das Hohlorgan frei hineinzuschauen und das Instrument im Hohlorgan zu verfolgen. Problematisch hierbei ist, dass die Lage und die Orientierung der Schnittebene von der den Eingriff durchführenden Person oder einer assistierenden Person von Hand eingestellt werden müssen. Bei jeder signifikanten Bewegung des Instruments muss diese Einstellung neu durchgeführt bzw. optimiert werden. Besonders hinderlich ist diese Interaktion von Benutzern im sterilen Umfeld eines Katheterlabors oder sonstigen minimalinvasiven Chirurgieräumen.
  • Der Erfindung liegt daher die Aufgabe zugrunde, die Bildüberwachung eines medizinischen Instruments im Hinblick auf die Handhabbarkeit, die Lesbarkeit und die darin enthaltene Information situationsangepasst zu verbessern.
  • Zur Lösung dieser Aufgabe ist bei einem Verfahren der eingangs genannten Art erfindungsgemäß vorgesehen, dass automatisch wenigstens ein die Erzeugung und/oder Anzeige der Darstellung beeinflussender Geometrieparameter unter Berücksichtigung von die aktuelle dreidimensionale Position und die aktuelle dreidimensionale Orientierung einer Spitze des Instruments beschreibenden Positionsdaten des Instruments angepasst wird und die den Geometrieparametern entsprechende Darstellung angezeigt wird.
  • Erfindungsgemäß wird die Darstellung also vollautomatisch in Abhängigkeit aktueller Positionsdaten des Instruments angepasst, wobei im Rahmen dieser Beschreibung auch im Folgenden unter Position die sechsdimensionale Position, also die Position und die Orientierung, verstanden werden soll. Bevorzugt kann dabei vorgesehen sein, dass als Geometrieparameter die Blickrichtung der Darstellung und/oder wenigstens eine nicht in die Darstellung zu übernehmende Bereiche des dreidimensionalen Datensatzes definierende Schnittebene verwendet werden. Bezüglich der Blickrichtung kann diese letztlich immer so gewählt werden, dass man einen guten Blick auf den Vorschub des Instruments, insbesondere des Katheters, hat. Beispielsweise kann hierfür eine Grundblickrichtung relativ zum Instrument definiert sein oder werden, beispielsweise ein Blick von schräg hinten in Vorschubrichtung. Die in der Darstellung gezeigte Blickrichtung auf das Hohlorgan, in dem sich das Instrument befindet, wird dann immer abhängig von den Positionsdaten angepasst, mithin vorteilhafterweise in Echtzeit nachgeführt. Es sind dann keinerlei weitere Bedienmaßnahmen der den Eingriff durchführenden Person oder einer assistierenden Person mehr nötig. Gerade im sterilen Bereich ist dies höchst vorteilhaft.
  • Weiterhin kann eine Schnittebene (Clip Plane) in Abhängigkeit der Positionsdaten immer so gehalten werden, dass ein Blick auf das Instrument möglich ist. Bevorzugt ist zusätzlich der Blick in Richtung auf eine Zielposition bzw. die Zielposition selbst grundsätzlich frei verfügbar. In besonders vorteilhafter Ausgestaltung werden die Blickrichtung und die Schnittebene beide gekoppelt in Echtzeit angepasst und somit der Bewegung des Instruments mitgeführt, so dass nicht nur immer eine optimale Blickrichtung für den weiteren Vorschub des Instruments gegeben wird, sondern zusätzlich auch immer dafür gesorgt wird, dass ein freier Blick auf das Instrument gegeben ist, insbesondere, ohne dabei die Zielposition auszublenden.
  • Dabei kann in konkreter Ausgestaltung vorgesehen sein, dass eine anhand der Positionsdaten anzupassende Schnittebene in einem festen Abstand und einem festen Neigungswinkel zu der Instrumentenspitze, insbesondere automatisch oder semiautomatisch, definiert wird. Analog kann, wie bereits beschrieben, vorgesehen sein, dass die Blickrichtung anhand der Positionsdaten, insbesondere relativ zur Orientierung der Instrumentenspitze, angepasst wird, wobei auch dies bevorzugt automatisch und/oder wenigstens zu Beginn des Eingriffs möglich ist. In Bezug auf die Schnittebene kann dabei mit besonderem Vorteil vorgesehen sein, dass die Definition in Abhängigkeit wenigstens einer insbesondere in dem dreidimensionalen Datensatz markierten Zielposition und/oder einer eingestellten Blickrichtung erfolgt. Das bedeutet, es ist zum einen möglich, vorab, beispielsweise durch einen Benutzer, eine Zielposition, beispielsweise eine zu behandelnde Stelle, zu markieren, welche ebenso bei der Einstellung der Schnittebene (und auch, worauf im Folgenden noch näher eingegangen werden wird, der Blickrichtung) berücksichtigt werden kann. Beispielsweise kann die Zielposition dahingehend in die Anpassung der Geometrieparameter eingehen, dass die Schnittebene so gewählt wird, dass die Zielposition weiterhin sichtbar bleibt. Aber auch abhängig von der Blickrichtung kann die Definition der Schnittebene erfolgen, nachdem diese ja letztlich angibt, in welchen Bereichen des dreidimensionalen Datensatzes potentiell das Instrument überlagerte Strukturen vorhanden sein könnten, die abgeschnitten werden sollen. Besonders vorteilhaft ist es auch hier, wenn sowohl die wenigstens eine Zielposition als auch die eingestellte Blickrichtung berücksichtigt werden.
  • Es ist auch denkbar, dass die Definition in Abhängigkeit einer Eingabe eines Nutzers erfolgt. Zumindest während eines Eingriffs sollte dies jedoch nur in Ausnahmefällen notwendig sein, beispielsweise, wenn sich die den Eingriff durchführende Person „vernavigiert” hat, insbesondere, indem eine Zielposition nun hinter dem Instrument liegt oder dergleichen. Dann kann eine komplette, manuelle Neueinstellung der Geometrieparameter der Darstellung erforderlich sein, welche vorteilhaft an einem grafischen Benutzerinterface erfolgen kann. In diesem Zusammenhang kann in vorteilhafter Ausgestaltung vorgesehen sein, dass zur Unterstützung der Eingabe des Benutzers eine insbesondere schematische Darstellung des Instruments dargestellt wird. Beispielsweise kann die Schnittebene gleichzeitig mit dem Instrument dargestellt werden, so dass sie ein Benutzer über ein geeignetes Werkzeug greifen, verschieben und/oder verkippen kann. Vorzugsweise ist die Blickrichtung auf die schematische Darstellung des Instruments und der Schnittebene so gewählt, dass sie der aktuell für die zeitaktuelle Darstellung eingestellten Blickrichtung entspricht.
  • Bezüglich der Blickrichtung kann zweckmäßigerweise vorgesehen sein, dass sie unter Berücksichtigung einer die Instrumentenspitze mit einer insbesondere in den dreidimensionalen Datensatz markierten Zielposition verbindenden Geraden, insbesondere entlang der Geraden, gewählt wird. Auf diese Weise kann der den Eingriff durchführenden Person intuitiv zur Kenntnis gebracht werden, in welche Richtung sich die aktuelle Zielposition befindet, so dass diese besonders gezielt an die Zielposition navigieren kann. Alternativ ist es selbstverständlich auch denkbar, die Blickrichtung in Abhängigkeit der Orientierung der Instrumentenspitze, insbesondere in Schieberichtung des Instruments oder in einer festen Winkelstellung hierzu, zu wählen. So sind immer die vor dem Instrument liegenden Bereiche des Hohlorgans im Blick der den Eingriff durchführenden Person. Denkbar ist es auch, dass über ein Benutzerinterface die Art der Bestimmung der Geometrieparameter, insbesondere der Blickrichtung, umgeschaltet werden kann.
  • Allgemein ist es in diesem Zusammenhang vorteilhaft, wenn sowohl die Blickrichtung als auch die Schnittebene als Geometrieparameter ständig, insbesondere in Echtzeit, automatisch nachgeführt werden, zunächst immer die neue Blickrichtung zu ermitteln und dann unter Berücksichtigung dieser neuen, eingestellten Blickrichtung die Schnittebene entsprechend nachzuführen. So wird immer eine möglichst optimale Darstellung für die den Eingriff durchführende Person erreicht.
  • Bevorzugter Weise werden die Positionsdaten unter Verwendung wenigstens eines an dem Instrument angeordneten Positionssensors, insbesondere eines elektromagnetischen Positionssensors, ermittelt. Es wird also ein Instrument verwendet, welches beispielsweise wenigstens einen in oder an der Instrumentenspitze vorgesehenen Positionssensor umfasst. Ein solcher Positionssensor, insbesondere ein elektromagnetischer Positionssensor, kann dann die Raumkoordinaten der Instrumentenspitze und deren Richtungswinkel im Raum als Positionsdaten ermitteln. Derartige Positionsbestimmungssysteme und ihre Registrierung mit Bildaufnahmemodalitäten oder dergleichen sind im Stand der Technik weithin bekannt und brauchen hier nicht näher dargelegt zu werden.
  • Alternativ ist es grundsätzlich auch denkbar, beispielsweise unter einem Winkel, insbesondere 90°, zueinander aufgenommene Durchleuchtungsbilder zur Ermittlung der Positionsdaten zu verwenden. Dies ist jedoch weniger bevorzugt, nachdem Durchleuchtungsbilder verschiedener Winkel nur schwierig zeitaktuell aufgenommen werden können. Wird eine Biplan-Röntgeneinrichtung verwendet, so können Platzprobleme auftreten.
  • Es kann ferner vorgesehen sein, dass die Positionsdaten wenigstens teilweise den Darstellungsdaten entsprechen. Aus den eingangs genannten Gründen ist es jedoch vorzugsweise so, dass als wenigstens ein Teil der Darstellungsdaten ein aktuelles Durchleuchtungsbild des Eingriffsbereichs verwendet wird. Darin ist die Instrumentenspitze meist deutlich zu erkennen.
  • Wie bereits eingangs erwähnt, ist bezüglich der Nachvollziehbarkeit von Bewegungen im Eingriffsbereich eine Durchleuchtungsüberwachung grundsätzlich sinnvoll, so dass vorzugsweise ein Positionsbestimmungssystem parallel mit einer Durchleuchtungsüberwachung vorgesehen wird. Dabei können die Daten selbstverständlich gemeinsam, sich gegebenenfalls gegenseitig plausibilisierend, verwendet werden, wobei Daten des Positionsbestimmungssystems zusätzlich Informationen über die in den Durchleuchtungsbildern, die ja zweidimensional sind, fehlende Raumrichtung liefern können. Auch wenn im Folgenden nur die Daten des Positionsbestimmungssystems als Positionsdaten verwendet werden, gehen die Positionsdaten doch teilweise auch als Darstellungsdaten ein.
  • Der dreidimensionale Datensatz kann ein vorab aufgenommener Bilddatensatz des Eingriffsgebiets und/oder ein aus einem solchen Bilddatensatz abgeleiteter Datensatz sein. Beispielsweise können dem dreidimensionalen Datensatz ein Magnetresonanz-Bilddatensatz, ein Computertomographie-Bilddatensatz und/oder ein mit einer anderen Modalität aufgenommener dreidimensionaler Bilddatensatz zugrunde liegen, welche dann beispielsweise über im Stand der Technik bekannte Segmentierungsverfahren weiterbearbeitet werden, um die innere Oberfläche des Hohlorgans, in dem navigiert wird, zu extrahieren und als dreidimensionalen Datensatz beispielsweise ein Modell des Hohlorgans zu schaffen, in welchem das Instrument dann navigiert wird. Beispielsweise kann auf diese Weise ein Modell des Herzens und der umgebenden Blutgefäße erzeugt werden, falls dies dem Eingriffsbereich entspricht.
  • Neben dem Verfahren betrifft die vorliegende Erfindung auch eine medizinische Untersuchungseinrichtung, umfassend eine Anzeigevorrichtung und eine zur Durchführung des erfindungsgemäßen Verfahrens ausgebildete Steuereinrichtung. Sämtliche Ausführungen bezüglich des erfindungsgemäßen Verfahrens lassen sich analog auf die erfindungsgemäße Untersuchungseinrichtung übertragen, so dass auch hiermit die Vorteile der Erfindung erreicht werden können. Eine erfindungsgemäße Untersuchungseinrichtung kann beispielsweise eine Röntgeneinrichtung mit einem C-Bogen umfassen, an dem sich gegenüberliegend ein Röntgenstrahler und ein Röntgenempfänger angeordnet sind. Diese kann zur Aufnahme von Durchleuchtungsbildern als Darstellungsdaten bzw. Grundlage der Darstellungsdaten verwendet werden. Gleichzeitig kann ein medizinisches Instrument vorgesehen sein, welches in seiner Spitze verbaute Positionssensoren umfasst, die Teil eines insbesondere elektromagnetischen Positionsbestimmungssystems sind. Über eine entsprechende Kommunikationsverbindung kann ein dreidimensionaler Datensatz erhalten werden, der die Grundlage der zur erzeugenden Darstellung bildet, wobei es vorteilhafterweise auch denkbar ist, einen dreidimensionalen Bilddatensatz mit der auch zur Aufnahme von Durchleuchtungsbildern genutzten Röntgeneinrichtung zu erzeugen, beispielsweise, indem während der Rotation des C-Bogens Projektionsbilder unter unterschiedlichen Projektionswinkeln aufgenommen werden und daraus auf bekanntem Wege ein dreidimensionaler Bilddatensatz erzeugt wird. Gegebenenfalls kann hierbei vorab ein Kontrastmittel verabreicht werden. Ein solcher, mittels einer C-Bogen-Röntgeneinrichtung aufgenommener dreidimensionaler Bilddatensatz hat den Vorteil, dass auch daraus abgeleitete dreidimensionale Datensätze, die beispielsweise durch entsprechende Segmentierung erhalten werden, bereits mit den Durchleuchtungsbildern registriert sein können, insbesondere, wenn der Patient unbewegt bleibt. Ist das Positionsbestimmungssystem zudem fest in die medizinische Untersuchungseinrichtung integriert, so kann auch bezüglich des Positionsbestimmungssystems und der Röntgeneinrichtung bereits eine feste Registrierung gegeben sein. Somit wird eine Umgebung geschaffen, die hervorragend zur Durchführung des erfindungsgemäßen Verfahrens geeignet ist.
  • Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnung. Dabei zeigen:
  • 1 eine erfindungsgemäße Untersuchungseinrichtung,
  • 2 eine Skizze zur Erläuterung des erfindungsgemäßen Verfahrens und
  • 3 eine mögliche Benutzeroberfläche zur Einstellung einer relativen Lage einer Schnittebene.
  • 1 zeigt eine erfindungsgemäße medizinische Untersuchungseinrichtung 1. Sie umfasst eine Röntgeneinrichtung 2 mit einem C-Bogen 3, an dem sich gegenüberliegend ein Röntgenstrahler 4 und ein Röntgenempfänger 5 angeordnet sind. Der C-Bogen 3 kann dabei bezüglich wenigstens eines Bewegungsfreiheitsgrads, insbesondere eines Rotationsfreiheitsgrads, relativ zu einer Patientenliege 6 bewegt werden.
  • Ferner ist als medizinisches, zur Behandlung in ein Hohlorgan einzuführendes Instrument 7 ein Katheter 8, hier ein Ablationskatheter, vorgesehen, der an ein Kathetersteuergerät 9 angeschlossen ist. In der Instrumentenspitze 10 des Katheters 8 sind wie grundsätzlich bekannt elektromagnetische Positionssensoren 11 vorgesehen, die einem Positionsbestimmungssystem 12 zugeordnet sind, welches beispielsweise ein externes Magnetfeld erzeugen kann, um in den Positionssensoren 11 induzierte Signale zu messen und daraus die sechsdimensionale Orientierung der Instrumentenspitze 10, also die dreidimensionale Position und die dreidimensionale Orientierung der Instrumentenspitze 10, zu ermitteln.
  • Die Röntgeneinrichtung 2, das Positionsbestimmungssystem 12 und das Kathetersteuergerät 9 sind mit einer Steuereinrichtung 13 verbunden, die den Betrieb der medizinischen Untersuchungseinrichtung 1 steuert und zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist, welches im Folgenden noch näher erläutert wird.
  • Die Steuereinrichtung 13 hat ferner Zugriff auf eine Anzeigevorrichtung 14, hier einen Monitor, und eine Bedieneinrichtung 15.
  • Die Steuereinrichtung 13 ist nun in der Lage, durch die Berücksichtigung von Positionsdaten Geometrieparameter einer dreidimensionalen, das Hohlorgan im Eingriffsbereich mit der aktuellen Position des Katheters 8, insbesondere der Instrumentenspitze 10, anzeigenden Darstellung, die aus einem dreidimensionalen Datensatz und die Position des Katheters 8 beschreibenden Darstellungsdaten gewonnen wird, automatisch anzupassen, wenn der Katheter 8 bewegt wird, sich also seine Position ändert. Dabei werden vorliegend die Blickrichtung und die Lage einer Schnittebene, die nicht in die Darstellung zu übernehmende Bereiche des dreidimensionalen Datensatzes definiert, automatisch angepasst.
  • Dies soll nun mit Hilfe der 2 näher erläutert werden. Das Verfahren geht, wie beschrieben aus von einem dreidimensionalen Datensatz 16 des Eingriffsbereichs 17, der besonders deutlich oder gar exklusiv die Innenwände der zu durchquerenden Hohlorgane zeigt, im Ausführungsbeispiel nach 2 beispielhaft das Herz 18 mit den umgebenden Blutgefäßen 19, insbesondere der Pulmonalvene 20, die vorliegend den Zielpunkt 21 des Eingriffs enthält.
  • In diesem Beispiel ist der dreidimensionale Datensatz 16 aus einem dreidimensionalen Bilddatensatz 22 gewonnen worden, der mit der Röntgeneinrichtung 2 aufgenommen wurde. Hierzu wurde bei einer Rotation des C-Bogens eine Mehrzahl von Projektionsbildern unter unterschiedlichen Winkeln aufgenommen, die mittels eines Rekonstruktionsverfahrens in den dreidimensionalen Bilddatensatz 22 überführt wurden. Nachdem vor der Aufnahme dieses dreidimensionalen Bilddatensatzes 22 ein Kontrastmittel verabreicht wurde, sind das Herz 18 und die Blutgefäße 19 besonders deutlich zu erkennen. Daher können das Herz 18 und die Blutgefäße 19 über ein übliches Segmentierungsverfahren segmentiert werden, so dass schließlich die inneren Begrenzungen des Herzens 18 und der Blutgefäße 19 als Grundlage für den dreidimensionalen Datensatz 16 dienen können, der letztlich ein Modell darstellt, welches die Hohlorgane in ihrer Lage enthält.
  • Der dreidimensionale Datensatz 16 kann vor dem geplanten minimalinvasiven Eingriff mit dem Katheter 8 bereits verwendet werden, um die Eingriffsplanung vorzunehmen, das bedeutet, der Zielpunkt 21 kann in dem dreidimensionalen Datensatz 16 markiert werden.
  • Ziel ist es nun, den dreidimensionalen Datensatz 16 gemeinsam mit Darstellungsdaten 23 zu nutzen, um eine dreidimensionale Darstellung 24 zu erzeugen, die sowohl die Anatomie des Eingriffsbereichs 17 als auch die aktuelle Position des Katheters 8 zeigt. Als Darstellungsdaten werden dabei zweidimensionale, in regelmäßigen Abständen aufgenommene Durchleuchtungsbilder 25 der Röntgeneinrichtung 2 verwendet, aus denen die Instrumentenspitze 10 deutlich ersichtlich ist. Diese Positionsinformation wird unterstützt durch von dem Positionsbestimmungssystem 12 gewonnene Positionsdaten 26, vgl. Pfeil 27.
  • Betrachtet man jedoch den dreidimensionalen Datensatz 16, fällt auf, dass ein innerhalb der Hohlorgane 18, 19 bewegter Katheter 8 überhaupt nicht sichtbar ist, da die Vorderwände den Katheter 8 verdecken können. Mithin existieren zwei wesentliche Geometrieparameter 28, die die optimale Lesbarkeit und Nutzbarkeit der dreidimensionalen Darstellung 24 mit beeinflussen, nämlich zum einen die Blickrichtung, aus der auf die Szene geblickt wird, zum anderen aber auch wenigstens eine Schnittebene, die bestimmt, welche Bereiche des dreidimensionalen Datensatzes 16 in der Darstellung 24 nicht zu sehen sein sollen, damit der Katheter 8 (und gegebenenfalls der Zielpunkt 21) zu sehen sind.
  • In dem erfindungsgemäßen Verfahren werden daher nun die Positionsdaten 26 des Positionsbestimmungssystems 12 genutzt, um die Geometrieparameter 28 bei aktualisierten Positionsdaten 26 automatisch nachzuführen, Pfeil 29. Dabei wird vorliegend, wenn neue Positionsdaten 26 vorliegen, zunächst die Blickrichtung als Geometrieparameter 28 auf die neue Position des Katheters 8, insbesondere der Instrumentenspitze 10, angepasst. Dies geschieht vorliegend, indem eine Verbindungslinie von der Instrumentenspitze 10 zu dem Zielpunkt 21 gezogen wird und anhand dieser Verbindungslinie die Blickrichtung definiert wird, beispielsweise so, dass ein Benutzer bei einer Anzeige der Darstellung 24 auf der Anzeigevorrichtung 14 sowohl den Katheter 8 wie auch den Zielpunkt 21, also letztlich auch den Weg zum Zielpunkt 21, gut im Blick hat, beispielsweise in Form eine schrägen Aufsicht. Hierzu kann beispielsweise ein fester Neigungswinkel der Blickrichtung zu der Verbindungslinie herangezogen werden. Alternativ ist es auch möglich, dass die aktuelle Orientierung der Katheterspitze, also die Vorschubrichtung des Katheters 8, als Referenz zur Definition der Blickrichtung dient. Es sei angemerkt, dass selbstverständlich auch komplexere Möglichkeiten zur Ermittlung einer Blickrichtung aus den Positionsdaten 26 möglich sind, welche beispielsweise einen guten Blick auf das vor dem Katheter 8 liegende Hohlorgan 18, 19 und den Zielpunkt 21 zu erreichen suchen. Zwischen unterschiedlichen Möglichkeiten zur automatischen Einstellung der Blickrichtung kann, beispielsweise über die Bedieneinrichtung 15, umgeschaltet werden.
  • Ist die Blickrichtung erst bekannt, so kann auch die Schnittebene nachgeführt werden. Dabei ist es möglich, dass sich die Lage der Schnittebene ebenso an der Blickrichtung orientiert, denkbar ist es jedoch auch, die Schnittebene grundsätzlich in einem festen Abstand und unter einem festen Winkel zur Position und Orientierung der Instrumentenspitze 10 zu definieren. Auch die Schnittebene wird also – sei es direkt oder indirekt – in Abhängigkeit der Positionsdaten 26 mitgeführt.
  • Ergebnis ist eine Darstellung 24, wie sie beispielhaft in 2 dargestellt ist. Ersichtlich ist aufgrund der Schnittebene nun ein Teil des Herzens 18 und der Blutgefäße 19 offen dargestellt, insbesondere auch die Pulmonalarterie 20. Die Instrumentenspitze 10 und der Zielpunkt 21 sind deutlich zu erkennen, genau wie der Weg, auf dem der Zielpunkt 21 erreicht werden kann.
  • Nachdem die Schritte des erfindungsgemäßen Verfahrens vollkommen automatisch ablaufen, ist keine Bedienerinteraktion erforderlich, um ständig ein aktuelles und optimal lesbares Bild dargestellt zu erhalten.
  • Sollte dennoch einmal eine Änderung der eingestellten Grundparameter für die automatische Nachführung von Blickrichtung und Schnittebene notwendig sein, beispielsweise, wenn der Zielpunkt 21 versehentlich durch die Katheterspitze 10 bereits passiert wurde oder dergleichen, kann das beispielsweise in 3 dargestellte Benutzerinterface 30 genutzt werden, um beispielsweise die Parameter zur Bestimmung der Schnittebene neu festzulegen. Dargestellt ist dort schematisch der Katheter 8 mit der Instrumentenspitze 10. Relativ zum Katheter wird in der schematischen dreidimensionalen Darstellung auch die Schnittebene 31 gezeigt, welche über ein entsprechendes Werkzeug, hier eine Greifhand 32, greifbar und entsprechend manipulierbar, insbesondere verschiebbar oder rotierbar ist. Auch die gesamte Darstellung kann verändert werden. Eine ähnliche Möglichkeit zur Einstellung ist auch bezüglich der Blickrichtung denkbar.

Claims (13)

  1. Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments (7), insbesondere eines Katheters (8), in wenigstens einem Hohlorgan in einem Eingriffsbereich (17) eines Körpers, bei dem aus einem dreidimensionalen Datensatz (16) des Eingriffsbereichs (17) und die aktuelle Position des Instruments (7) beschreibenden Darstellungsdaten (23) eine Darstellung (24) der aktuellen Position des Instruments (7) in dem Hohlorgan erzeugt wird, dadurch gekennzeichnet, dass automatisch wenigstens ein die Erzeugung und/oder Anzeige der Darstellung (24) beeinflussender Geometrieparameter (28) unter Berücksichtigung von die aktuelle dreidimensionale Position und die aktuelle dreidimensionale Orientierung einer Spitze (10) des Instruments (7) beschreibenden Positionsdaten (26) des Instruments (7) angepasst wird und die den Geometrieparametern (28) entsprechende Darstellung (24) angezeigt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Geometrieparameter (28) die Blickrichtung der Darstellung (24) und/oder wenigstens eine nicht in die Darstellung (24) zu übernehmende Bereiche des dreidimensionalen Datensatzes (16) definierende Schnittebene (31) verwendet werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass eine anhand der Positionsdaten (26) anzupassende Schnittebene (31) in einem festen Abstand und einem festen Neigungswinkel zu der Instrumentenspitze (10), insbesondere automatisch oder semiautomatisch, definiert wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Definition in Abhängigkeit wenigstens einer insbesondere in dem dreidimensionalen Datensatz (16) markierten Zielposition (21) und/oder einer eingestellten Blickrichtung erfolgt.
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Definition in Abhängigkeit einer Eingabe eines Benutzers erfolgt.
  6. Verfahren nach Anspruch 5, dadurch gegekennzeichnet, dass zur Unterstützung der Eingabe des Benutzers eine insbesondere schematische Darstellung des Instruments (7) dargestellt wird.
  7. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass die Blickrichtung unter Berücksichtigung einer die Instrumentenspitze (10) mit einer insbesondere in dem dreidimensionalen Datensatz (16) markierten Zielposition (21) verbindenden Geraden, insbesondere entlang der Geraden, gewählt wird.
  8. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass die Blickrichtung in Abhängigkeit der Orientierung des Instruments (7), insbesondere in Schieberichtung des Instruments (7), gewählt wird.
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Positionsdaten (26) unter Verwendung wenigstens eines an dem Instrument (7) angeordneten Positionssensors (11), insbesondere eines elektromagnetischen Positionssensors (11), ermittelt werden.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Positionsdaten (26) wenigstens teilweise den Darstellungsdaten (23) entsprechen.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als wenigstens ein Teil der Darstellungsdaten (23) ein aktuelles Durchleuchtungsbild (25) des Eingriffsbereichs (17) verwendet wird.
  12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der dreidimensionale Datensatz (16) ein vorab aufgenommener Bilddatensatz (22) des Eingriffsgebiets (17) und/oder ein aus einem solchen Bilddatensatz (22) abgeleiteter Datensatz (16) ist.
  13. Medizinische Untersuchungseinrichtung (1), umfassend eine Anzeigevorrichtung (14) und eine zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche ausgebildete Steuereinrichtung (13).
DE102010062340A 2010-12-02 2010-12-02 Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung Withdrawn DE102010062340A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102010062340A DE102010062340A1 (de) 2010-12-02 2010-12-02 Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
US13/306,169 US20120143045A1 (en) 2010-12-02 2011-11-29 Method for image support in the navigation of a medical instrument and medical examination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010062340A DE102010062340A1 (de) 2010-12-02 2010-12-02 Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung

Publications (1)

Publication Number Publication Date
DE102010062340A1 true DE102010062340A1 (de) 2012-06-06

Family

ID=46082964

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010062340A Withdrawn DE102010062340A1 (de) 2010-12-02 2010-12-02 Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung

Country Status (2)

Country Link
US (1) US20120143045A1 (de)
DE (1) DE102010062340A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013201259A1 (de) 2013-01-28 2014-07-31 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Abbildung der Prostata
WO2015173069A1 (en) * 2014-05-16 2015-11-19 Koninklijke Philips N.V. Device for modifying an imaging of a tee probe in x-ray data
EP3217187A3 (de) * 2016-07-29 2018-01-31 Siemens Healthcare GmbH Verfahren zur ermittlung von zweidimensionalen bilddaten einer schnittfläche eines erfassungsvolumens im rahmen einer magnetresonanzbildgebung

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6310464B2 (ja) * 2012-10-05 2018-04-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 改善されたx線画像を供する医療撮像システム及び方法
CN107405137B (zh) 2015-02-17 2020-10-09 皇家飞利浦有限公司 用于对3d超声图像体积中的标记进行定位的设备
CN107924459B (zh) * 2015-06-24 2021-08-27 埃达技术股份有限公司 用于肾结石去除程序的交互式3d镜放置和测量的方法和系统
WO2018057940A1 (en) * 2016-09-22 2018-03-29 Kusumoto Walter Pericardiocentesis needle guided by cardiac electrophysiology mapping
DE102016219817B4 (de) * 2016-10-12 2018-05-30 Siemens Healthcare Gmbh Verfahren zur Ermittlung eines Röntgenbilddatensatzes und Röntgeneinrichtung
DE102020205546A1 (de) * 2020-04-30 2021-11-04 Siemens Healthcare Gmbh Überwachungsverfahren und medizinisches System
EP4172956A1 (de) * 2020-06-29 2023-05-03 Koninklijke Philips N.V. Erzeugung und anzeige einer darstellung eines linken vorhofanhangs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050020911A1 (en) * 2002-04-10 2005-01-27 Viswanathan Raju R. Efficient closed loop feedback navigation
US20070078334A1 (en) * 2005-10-04 2007-04-05 Ascension Technology Corporation DC magnetic-based position and orientation monitoring system for tracking medical instruments
US20070276234A1 (en) * 2003-10-21 2007-11-29 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Intraoperative Targeting
US20080043902A1 (en) * 2006-08-21 2008-02-21 Viswanathan Raju R Method of Three-Dimensional Device Localization Using Single-Plane Imaging
EP2147636A1 (de) * 2008-07-24 2010-01-27 Esaote S.p.A. Vorrichtung und Verfahren zum Führen von chirurgischen Werkzeugen durch Ultraschallbildgebung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6049622A (en) * 1996-12-05 2000-04-11 Mayo Foundation For Medical Education And Research Graphic navigational guides for accurate image orientation and navigation
CA2447899A1 (en) * 2001-05-23 2002-11-28 Vital Images, Inc. Occlusion culling for object-order volume rendering
US7423655B1 (en) * 2002-06-24 2008-09-09 Adobe Systems Incorporated Revealing clipped portion of image object
US20050033117A1 (en) * 2003-06-02 2005-02-10 Olympus Corporation Object observation system and method of controlling object observation system
DE10334074A1 (de) * 2003-07-25 2005-02-24 Siemens Ag System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern
US8041087B2 (en) * 2005-04-05 2011-10-18 Bradley University Radiographic imaging display apparatus and method
DE102006046045B4 (de) * 2006-09-28 2014-05-28 Siemens Aktiengesellschaft Verfahren zur zweidimensionalen oder dreidimensionalen Bilddarstellung eines interessierenden Zielbereichs in einem Hohlorgan und medizinisches Untersuchungs- und Behandlungssystem

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050020911A1 (en) * 2002-04-10 2005-01-27 Viswanathan Raju R. Efficient closed loop feedback navigation
US20070276234A1 (en) * 2003-10-21 2007-11-29 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Intraoperative Targeting
US20070078334A1 (en) * 2005-10-04 2007-04-05 Ascension Technology Corporation DC magnetic-based position and orientation monitoring system for tracking medical instruments
US20080043902A1 (en) * 2006-08-21 2008-02-21 Viswanathan Raju R Method of Three-Dimensional Device Localization Using Single-Plane Imaging
EP2147636A1 (de) * 2008-07-24 2010-01-27 Esaote S.p.A. Vorrichtung und Verfahren zum Führen von chirurgischen Werkzeugen durch Ultraschallbildgebung

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013201259A1 (de) 2013-01-28 2014-07-31 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Abbildung der Prostata
WO2015173069A1 (en) * 2014-05-16 2015-11-19 Koninklijke Philips N.V. Device for modifying an imaging of a tee probe in x-ray data
CN106456080A (zh) * 2014-05-16 2017-02-22 皇家飞利浦有限公司 用于修改x射线数据中的对tee探头的成像的设备
US11850083B2 (en) 2014-05-16 2023-12-26 Koninklijke Philips N.V. Device for modifying an imaging of a tee probe in X-ray data
EP3217187A3 (de) * 2016-07-29 2018-01-31 Siemens Healthcare GmbH Verfahren zur ermittlung von zweidimensionalen bilddaten einer schnittfläche eines erfassungsvolumens im rahmen einer magnetresonanzbildgebung
US10908244B2 (en) 2016-07-29 2021-02-02 Siemens Healthcare Gmbh Determining two-dimensional image data from at least one sectional surface of an acquisition volume as part of a magnetic resonance imaging process

Also Published As

Publication number Publication date
US20120143045A1 (en) 2012-06-07

Similar Documents

Publication Publication Date Title
DE102010062340A1 (de) Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
DE102007045075B4 (de) Interventionelles medizinisches Diagnose- und/oder Therapiesystem
DE102008031146B4 (de) Vorrichtung zur Navigation eines Katheters durch eine Verschlussregion eines Gefäßes
DE10210645B4 (de) Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
DE102005032523B4 (de) Verfahren zur prä-interventionellen Planung einer 2D-Durchleuchtungsprojektion
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
DE102012215001B4 (de) Verfahren zur 2D-3D-Registrierung eines Modells mit einem Röntgenbild
DE10210647A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
EP3175789B1 (de) Verfahren zur bildunterstützung eines behandlers, röntgeneinrichtung und computerprogramm
DE10210646A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE19846687C2 (de) Chirurgische Hilfsvorrichtung zur Verwendung beim Ausführen von medizinischen Eingriffen und Verfahren zum Erzeugen eines Bildes im Rahmen von medizinischen Eingriffen
DE102008002850A1 (de) Verfahren zur Anwendung eines Bildgebungs- und Navigationssystems
DE102005030646A1 (de) Verfahren zur Kontur-Visualisierung von interessierenden Regionen in 2D-Durchleuchtungsbildern
EP2260784A1 (de) System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
DE10202091A1 (de) Vorrichtung und Verfahren zur Ermittlung einer Koordinatentransformation
DE102005035430A1 (de) Verfahren zur verbesserten Darstellung co-registrierter 2D-3D-Bilder in der medizinischen Bildgebung
DE10240727A1 (de) Bildgebendes System und Verfahren zur Optimierung einer Röntgenabbildung
DE102007013407A1 (de) Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation
DE102005027678A1 (de) Verfahren und Vorrichtung zur Markierung von dreidimensionalen Strukturen auf zweidimensionalen Projektionsbildern
DE102008045276B4 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
DE102008032508B4 (de) Medizinische Untersuchungs- und Behandlungseinrichtung zur Planung und Durchführung einer Punktion eines Patienten sowie zugehöriges Verfahren
DE102013211239A1 (de) Verfahren zur Bildunterstützung und Vorrichtung
EP4213755B1 (de) Chirurgisches assistenzsystem
DE102007021061A1 (de) Verfahren zur gekoppelten Darstellung von Röntgen-Durchleuchtungs-sowie intraoperativer Ultraschallbilder in der medizinischen Bildgebung
DE102007052123A1 (de) Verfahren zur Erstellung eines Fusionsbildes aus wenigstens einer zweidimensionalen und wenigstens dreidimensionalen auf wenigstens ein Blutgefäß bezogenen medizinischen Bildaufnahme sowie zugehörige medizinische Einrichtung

Legal Events

Date Code Title Description
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R120 Application withdrawn or ip right abandoned
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE