DE102005045602A1 - Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs - Google Patents

Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs Download PDF

Info

Publication number
DE102005045602A1
DE102005045602A1 DE102005045602A DE102005045602A DE102005045602A1 DE 102005045602 A1 DE102005045602 A1 DE 102005045602A1 DE 102005045602 A DE102005045602 A DE 102005045602A DE 102005045602 A DE102005045602 A DE 102005045602A DE 102005045602 A1 DE102005045602 A1 DE 102005045602A1
Authority
DE
Germany
Prior art keywords
image data
instrument
data point
dimensional
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005045602A
Other languages
English (en)
Other versions
DE102005045602B4 (de
Inventor
Jan Dr. Boese
Marcus Dr. Pfister
Norbert Rahn
Bernhard Dr. Sandkamp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005045602.2A priority Critical patent/DE102005045602B4/de
Priority to US11/526,176 priority patent/US7860282B2/en
Publication of DE102005045602A1 publication Critical patent/DE102005045602A1/de
Application granted granted Critical
Publication of DE102005045602B4 publication Critical patent/DE102005045602B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis

Abstract

Bei einem Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs wird vor dem Verfahren ein 3-dimensionaler Bilddatensatz aufgenommen. Ein Ortungssystem wird mit dem Koordinatensystem des 3-dimensionalen Bilddatensatzes gekoppelt. Das Instrument wird geortet und die Position des Instruments in dem 3-dimensionalen Bilddatensatz als Instrumenten-Bilddatenpunkt 18 festgelegt. Es erfolgt die Festlegung von zwei weiteren Ziel-Bilddatenpunkten (20, 22) in der Zielregion, in der das Instrument zu führen ist. Hierdurch ist eine Ebene definiert. In dieser Ebene werden die Bilddaten zur einer 2-dimensionalen Darstellung verwendet. Auf der Darstellung sind sowohl der Instrumenten-Bilddatenpunkt als auch die beiden Ziel-Bilddatenpunkte zu erkennen, so dass die Zielregion eines interventionellen Eingriffs und ein interventionelles medizinisches Gerät gleichzeitig auf einem Bild dargestellt sind. Das Bild kann während des interventionellen medizinischen Eingriffs nachgeführt werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs aufgrund eines vor dem Eingriff erzeugten 3-dimensionalen Bilddatensatzes.
  • Zu den interventionellen medizinischen Eingriffen gehören die Platzierung von Kathetern, Biopsien (Gewebeentnahmen) und TIPS (transingular intrahepatic porosystemic shunt, Leberpunktion). Dabei werden 3-dimensionale Informationen der unterschiedlichsten Art verwendet, beispielsweise solche, die aufgrund von Kernresonanzabbildung (MR), Röntgen-Computertomographie (CT), 3D-Röntgen-Rotationsangiographie oder mit 3D-Ultraschall gewonnen wurden.
  • Diese 3-dimensionalen Bildinformationen werden insbesondere bei der vorherigen Planung interventioneller Eingriffe genutzt. Hierbei dienen die 3-dimensionalen Bilddaten dazu, eine Information über die Anatomie des Patienten zu geben, beispielsweise um die Lage eines Tumors im Körper eindeutig zu bestimmen. Bei der eigentlichen Durchführung des interventionellen Eingriffs werden bisher die 3-dimensionalen Bildinformationen wenig genutzt. In der Regel erfolgt dabei dann eine 2-dimensionale Bildgebung mit Hilfe von Röntgenanlagen oder von elektromagnetischen Ordnungssystemen (zum Beispiel vom Typ Biosense Carto XP).
  • Es ist auch möglich, die 3-dimensionalen Bilddaten während der Durchführung des interventionellen Eingriffs darzustellen. Eine Möglichkeit dafür ist die Verwendung von MPR-Schichten (MPR bedeutet Multiplanare Rekonstruktion). Dabei wählt der Nutzer in einem 3-dimensionalen Bilddatensatz die Dicke und die Lage der darzustellenden Schicht aus. An sich würde man in einem solchen Bild ausschließlich die Zielregion sehen, d. h. den Bereich der Anatomie des Patientenkörpers, in den das Instrument zu verbringen ist. In den 2-dimensionalen Röntgenbildern hingegen ist das Instrument zu sehen. So wird im Stand der Technik ein fusioniertes Bild erzeugt, in dem gleichzeitig das Instrument gezeigt ist, sowie die Zielregion, in die das Instrument zu verbringen ist. Dadurch, dass der Nutzer die Schicht von Hand auswählt, ist die Visualisierung der 3-dimensionalen Bilddaten mühselig, eine einfache Nachführung ist bereits nicht möglich, und die Visualisierung muss während der Führung des Instruments immer wieder angepasst werden. Dies bedeutet einen erheblichen Zeitaufwand während des interventionellen Eingriffs.
  • Im Stand der Technik werden auch Ortungssysteme verwendet, beispielsweise elektrische Ortungssysteme wie das Biosense Carto XP oder auf Röntgentechnik basierende Ortungssysteme. Diese Ortungssysteme liefern jedoch hauptsächlich die Koordinaten der Spitze des Instruments, wobei die Art und Weise der Darstellung der Information von Hand gewählt werden muss.
  • Es ist Aufgabe der Erfindung, die Nutzung der 3-dimensionalen Bilddaten während eines interventionellen medizinischen Eingriffs auszuweiten und den interventionellen medizinischen Eingriff dadurch besser zu unterstützen.
  • Die Erfindung stellt zur Lösung der Aufgabe ein Verfahren gemäß Patentanspruch 1 bereit.
  • Das erfindungsgemäße Verfahren beginnt also mit dem Schritt, dass ein Ortungssystem für ein für den Eingriff verwendetes medizinisches Instrument mit dem Koordinatensystem des 3-dimensionalen Bilddatensatzes gekoppelt wird. Man spricht hier davon, dass das 3D-Volumen zu dem Ortungssystem „registriert" wird.
  • Wird nun das Instrument mit Hilfe des Ortungssystems geortet, so lässt sich in dem 3-dimensionalen Bilddatensatz ein die Position des Instruments charakterisierender Instrumenten-Bilddatenpunkt bestimmen. Durch die Kopplung des Ortungssys tems mit dem 3-dimensionalen Bilddatensatz wird also die Information betreffend die Koordinaten der Instrumentenspitze automatisch an das Bildverarbeitungssystem weitergegeben, und ein Punkt aus dem 3-dimensionalen Bilddatensatz kann der Instrumentspitze zugeordnet werden.
  • Als nächster Schritt erfolgt das Festlegen zumindest eines Ziel-Bilddatenpunkts in dem 3-dimensionalen Bilddatensatz in einer Zielregion, in die das Instrument zu führen ist. Anschließend erfolgt die Festlegung einer für die 2-dimensionale Darstellung geeigneten Datenauswahl aus dem 3-dimensionalen Datensatz, wobei die Datenauswahl mit Hilfe des Instrumenten-Bilddatenpunkts und des Ziel-Bilddatenpunkts definiert bzw. eingeschränkt wird.
  • Unter Datenauswahl wird hier alles verstanden, was mit herkömmlichen Abbildungsverfahren 2-dimensional auf dem Bildschirm darstellbar ist. Der Stand der Technik bietet hierfür zahlreiche Verfahren an, wie 3-dimensionale Daten so ausgewählt werden können, dass eine 2-dimensionale Abbildung ermöglicht und sinnvoll ist. Je nach Art der Datenauswahl ist festzulegen, was oben unter „definiert wird" zu verstehen ist. In der Regel werden Instrumenten- und Ziel-Bilddatenpunkte Teil der Datenauswahl sein, wobei zwei Punkte bereits ausreichend stark einschränkend sind, so dass für die abschließende Festlegung der Datenauswahl nicht mehr viele weitere Schritte erforderlich sind.
  • Das erfindungsgemäße Verfahren umfasst schließlich das 2-dimensionale Darstellen der Datenauswahl auf einem Bildschirm während des interventionellen Eingriffs.
  • Vorzugsweise erfolgt hierbei ein Nachführen, insbesondere in Echtzeit. Mit anderen Worten wird das medizinische Instrument während seiner Verbringung in die Zielregion wiederholt geortet, wobei wiederholt ein Instrumenten-Bilddatenpunkt festgelegt wird. Bei unverändertem Ziel-Bilddatenpunkt werden jedes Mal die Schritte der Festlegung der Datenauswahl und der 2- dimensionalen Darstellung der Datenauswahl wiederholt, wobei die Schritte des Verfahrens (mit Ausnahme des Festlegens des Ziel-Bilddatenpunkts) insbesondere in Echtzeit bei der Bewegung des medizinischen Instruments wiederholt werden.
  • Während der interventionelle medizinische Eingriff stattfindet, wird also die von der gegenwärtigen Lage des Instruments und von der Zielregion abhängige 2-dimensionale Darstellung wiederholt geändert. Dadurch wird es möglich, dem Nutzer gleichzeitig die Zielregion und die Lage des Instruments darzustellen, so dass er auch bei Bewegung des Instruments weiterverfolgen kann, wie dieses relativ zur Zielregion liegt, und wobei er hierbei die Auswahl aus den 3-dimensionalen Bilddaten veranschaulicht hat, so dass er auf dem Bild verfolgen kann, ob das Instrument ungestört in Richtung der Zielregion bewegt werden kann, oder ob Hindernisse den Weg des Instruments stören.
  • Bei der Erfindung erfolgt das Festlegen des Ziel-Bilddatenpunkts beispielsweise ähnlich wie bei der bisherigen Planung des interventionellen Eingriffs durch den Benutzer selbst. Er kann den Ziel-Bilddatenpunkt interaktiv (d. h. durch Betätigung einer Benutzerschnittstelle, wie etwa einer Maus) direkt festlegen, d. h. einen entsprechenden Punkt in dem 3-dimensionalen Bilddatensatz beispielsweise anklicken, um den Ziel-Bilddatenpunkt zu definieren. Neben dieser direkten Festlegung (eine Eingabe, ein Bilddatenpunkt) kann der Ziel-Bilddatenpunkt auch aus mehreren von dem Benutzer interaktiv eingegebenen Datenwerten festgelegt werden. Da der Ziel-Bilddatenpunkt die Zielregion repräsentieren soll, kann es notwendig sein, dass der Benutzer mehrere Punkte interaktiv festlegt, welche Teil der Zielregion sind.
  • Beispielsweise kann der Benutzer eine Fläche festlegen, die die Zielregion umgibt. Der Schwerpunkt der Zielregion kann dann berechnet werden und als Ziel-Bilddatenpunkt festgelegt werden. Hierbei muss die Fläche nicht unbedingt vollständig die Zielregion umgeben, es können Verfahren zur Berechnung des Schwerpunkts verwendet werden, bei denen nur auf einer Seite die Oberfläche der Zielregion festgelegt ist, beispielsweise wenn von einer gewissen Symmetrie der Zielregion ausgegangen wird. Es könnte beispielsweise mit einer idealisierten Kugelform gearbeitet werden.
  • Anstelle der Eingabe einer vollständigen Fläche kann der Benutzer auch eine Vielzahl von Bilddatenpunkten interaktiv bestimmen, aus denen ihr Schwerpunkt ermittelt wird, der dann als Ziel-Bilddatenpunkt festgelegt wird.
  • Bei einer bevorzugten Ausführungsform der Erfindung entspricht die Datenauswahl der Auswahl einer ebenen multiplanaren Rekonstruktionsschicht (MPR-Schicht) aus dem 3-dimensionalen Datensatz.
  • Die Verwendung einer ebenen Schicht ermöglicht es, dass eine solche Ebene definiert wird, welche den Instrumenten-Bilddatenpunkt und den Ziel-Bilddatenpunkt umfasst.
  • Vorzugsweise wird interaktiv ein weiterer Ziel-Bilddatenpunkt festgelegt. Als Schichtebene wird dann die durch den Instrumenten-Bilddatenpunkt und die beiden Ziel-Bilddatenpunkte verlaufende Ebene festgelegt.
  • Gibt der Benutzer keine weiteren Ziel-Bilddatenpunkte ein, so muss zur Definition der Ebene zwischen einer Mehrzahl von Ebenen ausgewählt werden, in denen jeweils die Geradenverbindung von Instrumenten-Bilddatenpunkt und Ziel-Bilddatenpunkt enthalten ist. Dem Benutzer stehen also eine Mehrzahl von Ebenen zur Auswahl, welche gewissermaßen verschiedene Kippungen repräsentieren, wobei die Drehachse bei der Kippung die Geradenverbindung von Instrumenten-Bilddatenpunkt und Ziel-Bilddatenpunkt ist. Der Benutzer wählt dann zur Festlegung der Schichtebene eine der Ebenen aus, beispielsweise durch numerische Eingabe eines Kippwinkels oder durch „Blättern" durch den 3-dimensionalen Bilddatensatz.
  • Bei der oben erwähnten bevorzugten Ausführungsform, bei der ein Nachführen bei der Bewegung des Instruments stattfindet, kann man hierbei vorsehen, dass der Kippwinkel jeweils konstant bleibt, solange der Benutzer nicht interaktiv eine Änderung im Kippwinkel festlegt.
  • Das erfindungsgemäße Verfahren kann den weiteren Schritt umfassen, dass eine zweite Datenauswahl festgelegt wird, die einer ebenen MPR-Schicht senkrecht zu der ersten MPR-Schicht entspricht, die ebenfalls 2-dimensional dargestellt wird. Dem Benutzer werden somit zwei zueinander senkrechte Schichten dargestellt. Die Orientierung der zweiten Ebene kann so festgelegt sein, dass auf halbem Weg zwischen dem ersten Zieldatenpunkt und dem weiteren Zieldatenpunkt ein Schwerpunkt der beiden Ziel-Bilddatenpunkte ermittelt wird, dieser mit dem Instrumenten-Bilddatenpunkt verbunden wird, und dann senkrecht zu der ersten Ebene eine zweite Ebene definiert wird, welche die Verbindung aus diesem Schwerpunkt und dem Instrumenten-Bilddatenpunkt enthält.
  • Die vorliegende Erfindung ist nicht auf die Verwendung von ebenen multiplanaren Rekonstruktionsschichten beschränkt. Insbesondere kann die Datenauswahl der Auswahl einer gekrümmten multiplanaren Rekonstruktionsschicht entsprechen. Die Verwendung einer gekrümmten multiplanaren Rekonstruktionsschicht ist insbesondere dann sinnvoll, wenn das medizinische Instrument selbst eine Krümmung umfasst. Dies kann dann der Fall sein, wenn bei der Intervention Körperteile (Organe) einem geraden Einführen des Instruments im Wege stehen, so dass durch die Krümmung des Instruments ein gekrümmter Weg des Instruments zur Zielregion vorgegeben ist. Bevorzugt entspricht somit die Krümmung der Schicht einer Krümmung des medizinischen Instruments. Definieren der Instrumenten-Bilddatenpunkt und der Ziel-Bilddatenpunkt die Datenauswahl so, dass sie Teile der gekrümmten Schicht sind, enthält die gekrümmte MPR-Schicht somit einen Pfad vom Instrumenten- zum Ziel-Bilddatenpunkt, der einem realistischen zukünftigen Pfad des Instruments entspricht.
  • Es war oben bereits erwähnt worden, dass die Datenauswahl, welche durch die beiden Bilddatenpunkte definiert wird, jegliche mögliche Datenauswahl sein kann, die eine 2-dimensionale Darstellung von 3-dimensionalen Bilddaten ermöglicht. Eine völlig andere Darstellung ist zum Beispiel die „Endoscopic-View"-Darstellung. Die „Endoscopic-View"-Darstellung ist eine Darstellung, bei der die Sichtweise eines Endoskops simuliert wird. Da die Datenauswahl bei der vorliegenden Erfindung bevorzugt vollautomatisch aufgrund der beiden Bilddatenpunkte, Ziel-Bilddatenpunkt und Instrumenten-Bilddatenpunkt, festgelegt werden soll, wird als „Endoscopic-View"-Darstellung eine Darstellung definiert, die von dem Instrumenten-Bilddatenpunkt ausgeht und in Richtung des Ziel-Bilddatenpunkts weist bzw. schaut. Bei dieser Darstellung muss der Ziel-Bilddatenpunkt nicht selbst zu erkennen sein, sondern kann gewissermaßen „hinter" der Darstellung liegen. Auch der Instrumenten-Bilddatenpunkt ist selbst nicht zu erkennen, sondern ist Ausgangspunkt der perspektivischen Darstellung.
  • Als weitere mögliche Techniken zur Definition einer Datenauswahl gibt es die Maximum-Intensity-Projection-Darstellung (MIP), die Shaded-Surface-Display-Darstellung (SSD) oder die Volumen-Rendering-Technique-Darstellung (VRT).
  • Bei der vorliegenden Erfindung wird vollautomatisch oder aufgrund der Eingabe von wenigen Daten eine 2-dimensionale Darstellung aus den 3-dimensionalen Bilddaten ausgewählt. Dies sind die Bilddaten, die vor dem interventionellen Eingriff aufgenommen worden sind. Wie im Stand der Technik können auch weiterhin Röntgenaufnahmen während des interventionellen Eingriffs vorgenommen werden. Bevorzugt entspricht deren Perspektive der 2-dimensionalen Darstellung. Dies bezieht sich vor allem auf den Fall der Verwendung von ebenen MPR-Schichten. In diesem Fall kann es hilfreich sein, wenn die Position des C-Arms des Röntgengeräts, an dem die Röntgenröhre und der Detektor montiert sind, automatisch so verfahren wird, dass der Röntgenzentralstrahl der Röntgenanlage senkrecht auf die 2-dimensional auf dem Bildschirm dargestellte Hauptschicht zeigt. In diesem Falle wird eine Überlagerung des 2-dimensionalen Röntgenbildes der dargestellten Schicht des 3-dimensionalen Bilddatensatzes möglich. (Hierzu muss lediglich das Röntgensystem zum 3-dimensionalen Datensatz „registriert" werden, d. h. die Koordinatensysteme miteinander gekoppelt werden.) Es wird dann ermöglicht, in die Röntgenaufnahme oder die kombinierte Darstellung von Röntgenaufnahme und MPR-Schicht durch Einblendung von Symbolen zu veranschaulichen: Die Lage des Instrumenten-Bilddatenpunkts, die Lage des Ziel-Bilddatenpunkts und/oder die Sollbewegungsrichtung des Instruments. Letztere wird vorzugsweise durch einen Pfeil vom Instrumenten-Bilddatenpunkt zum Ziel-Bilddatenpunkt veranschaulicht.
  • Es wird nun eine bevorzugte Ausführungsform der Erfindung unter Bezug auf die Zeichnungen beschrieben, in denen:
  • 1 schematisch ein Volumen darstellt, welches einen 3-dimensionalen Bilddatensatz repräsentiert und veranschaulicht, wie eine Schicht aus diesem Volumen auszuwählen ist, und
  • 2 schematisch die Darstellung der ausgewählten Schicht zeigt.
  • Der in 1 gezeigte Kasten 10 steht repräsentativ für ein Volumen, das von einem 3-dimensionalen Bilddatensatz erfüllt wird. In dem Volumen 10 ist ein zu punktierendes Gefäß 12 sowie ein weiteres Organ 14 gezeigt. Dem Gefäß 12 und dem Organ 14 sind entsprechende Bilddaten(punkte) in dem 3-dimensionalen Bilddatensatz zugeordnet.
  • Während einer Punktierung wird die bereits in den Körper eingeführte Nadel mit Hilfe eines Ortungssystems geortet. Die Nadel ist schematisch in dem Volumen 10 dargestellt und mit 16 bezeichnet. Geortet wird die Nadelspitze. In dem 3-dimen sionalen Bilddatensatz wird ein Instrumenten-Bilddatenpunkt 18 bestimmt, der der Position der Nadel 16 entspricht.
  • Es wird nun durch einen Benutzer, der den 3-dimensionalen Bilddatensatz ansieht, interaktiv ein Ziel-Bilddatenpunkt 20 sowie ein weiterer Ziel-Bilddatenpunkt 22 festgelegt. Die beiden Punkte 20 und 22 sind in der Zielregion gewählt, in die das interventionelle Instrument, nämlich die Nadel 16 eingefügt werden soll. Es handelt sich vorliegend um zwei Bereiche des zu punktierenden Gefäßes 12.
  • Die drei Punkte 18, 20, 22 liegen nicht auf einer Geraden, so dass durch diese drei Punkte eine Ebene E definiert werden kann. Diese Ebene wird nun als Schnittebene für einen MPR-Schnitt ausgewählt. Mit anderen Worten werden entlang dieser Ebene E aus dem 3-dimensionalen Bilddatensatz Bilddatenpunkte herausgenommen und 2-dimensional dargestellt.
  • Die 2-dimensionale Darstellung der Bilddatenpunkte der Ebene E ist in 2 gegeben. Man sieht in der Darstellung zum einen die ohnehin in dem 3-dimensionalen Bilddatensatz vorhandenen anatomischen Teile des Patienten, nämlich das zu punktierende Gefäß 12 und das Organ 14. Ferner sind erfindungsgemäß die drei Punkte 18, 20 und 22 eingezeichnet, nämlich der Instrumenten-Bilddatenpunkt 18, an dem schematisch auch die Nadel 16 dargestellt sein kann (siehe 2), sowie die beiden Ziel-Bilddatenpunkte 20 und 22.
  • Für einen Benutzer, der durch die interaktiven Eingaben der Ziel-Bilddatenpunkte 20 und 22 seine Zielregion umrissen hat, ist die Darstellung gemäß 2 von außerordentlichem Nutzen. Gezeigt ist in einem einzigen Bild sowohl die Instrumentenspitze 18 als auch die Zielregion, der Ausschnitt aus dem Gefäß 12. Der Benutzer weiß nun, wie er die Nadel 16 zu führen hat, damit das Organ 14 nicht beschädigt wird und andererseits die Zielregion, nämlich das zu punktierende Gefäß 12, erreicht wird.
  • Bei der Erfindung wird die Zielregion mit den beiden Ziel-Bilddatenpunkten 20 und 22 ein einziges Mal festgelegt, die Ortung des Punkts der Spitze der Nadel 16 erfolgt mehrfach. Dadurch kann die Darstellung gemäß 2 regelmäßig an die aktuelle Position der Nadelspitze angepasst werden und jedes Mal dem Benutzer in optimierter Weise die Information aus dem 3-dimensionalen Bilddatensatz zur Verfügung stellen.
  • Die Erfindung ist nicht auf die interaktive Eingabe von zwei Ziel-Bilddatenpunkt 20 und 22 festgelegt. Beispielsweise kann lediglich ein einziger Ziel-Bilddatenpunkt 20 festgelegt sein. Die zu definierende Ebene E liegt dann bekanntlich so, dass sie die Gerade vom Punkt 18 zum Punkt 20 umfasst, und eine Vielzahl von möglichen Ebenen entspricht einer Drehung von Ebenen um diese Gerade. Der Benutzer kann dann sich diese Ebenen anschauen und eine geeignete Orientierung auswählen.
  • Typischerweise geschieht die Festlegung der Zielregion bei der Planung des interaktiven Eingriffs. Im veranschaulichten Beispiel werden die Ziel-Bilddatenpunkte 20 und 22 also vor der eigentlichen Intervention festgelegt. Während der Intervention erfolgt die Ortung der Nadelspitze des Instrumenten-Bilddatenpunkts 18 und die kurzfristige Festlegung der Ebene E.

Claims (15)

  1. Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs aufgrund eines vor dem Eingriff erzeugten 3-dimensionalen Bilddatensatzes mit den Schritten: – Koppeln eines Ortungssystems für ein für den Eingriff verwendetes medizinisches Instrument mit dem Koordinatensystem des 3-dimensionalen Bilddatensatzes, Orten des Instruments und Bestimmen eines die Position des Instruments charakterisierenden Instrumenten-Bilddatenpunkts (18) in dem 3-dimensionalen Bilddatensatz, – Festlegen zumindest eines Ziel-Bilddatenpunkts (20, 22) in dem 3-dimensionalen Bilddatensatz in einer Zielregion (12), in die das Instrument zu führen ist, – Festlegen einer für die 2-dimensionale Darstellung geeigneten Datenauswahl aus dem 3-dimensionalen Datensatz, wobei die Datenauswahl mit Hilfe des Instrumenten-Bilddatenpunkts (18) und des Ziel-Bilddatenpunkts (20, 22) definiert wird, und – 2-dimensionales Darstellen der Datenauswahl auf einem Bildschirm während des interventionellen Eingriffs.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das medizinische Instrument während seiner Verbindung in die Zielregion wiederholt geortet wird, wobei wiederholt ein Instrumenten-Bilddatenpunkt (18) festgelegt wird, und dass jedes Mal bei unverändertem Ziel-Bilddatenpunkt (20, 22) die Schritte der Festlegung der Datenauswahl und der 2-dimensionalen Darstellung der Datenauswahl wiederholt werden, wobei die Wiederholungen von Schritten vorzugsweise in Echtzeit bei der Bewegung des medizinischen Instruments erfolgen.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Ziel-Bilddatenpunkt (20, 22) interaktiv durch einen Benutzer direkt festgelegt wird.
  4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Ziel-Bilddatenpunkt (20, 22) aus den von einem Benutzer interaktiv eingegebenen Datenwerten festgelegt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Benutzer eine Fläche festlegt, die die Zielregion umgibt, und dass der Ziel-Bilddatenpunkt der Schwerpunkt der Zielregion ist.
  6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Benutzer eine Vielzahl von Bilddatenpunkten interaktiv bestimmt, aus denen ihr Schwerpunkt ermittelt und als Ziel-Bilddatenpunkt festgelegt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl einer ebenen multiplanaren Rekonstruktionsschicht (MPR-Schicht) aus dem 3-dimensionalen Datensatz entspricht.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Benutzer interaktiv einen weiteren Ziel-Bilddatenpunkt (22) festlegt und als Schichtebene (E) die durch den Instrumenten-Bilddatenpunkt (18) und die beiden Ziel-Bilddatenpunkte (20, 22) verlaufende Ebene (E) festgelegt wird.
  9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass dem Benutzer eine Mehrzahl von Ebenen zur Auswahl vorgegeben wird, in denen jeweils die Geradenverbindung von Instrumenten-Bilddatenpunkt (18) und Ziel-Bilddatenpunkt (20) verläuft und dass der Benutzer zur Festlegung der Schichtebene eine der Ebenen auswählt.
  10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass es die weiteren Schritte umfasst, dass eine zweite Datenauswahl festgelegt wird, die einer weiteren ebenen MPR-Schicht senkrecht zu der ersten MPR-Schicht entspricht und dass diese zweite Datenauswahl 2-dimensional dargestellt wird.
  11. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl einer gekrümmten multiplanaren Rekonstruktionsschicht (MPR-Schicht) aus dem 3-dimensionalen Datensatz entspricht.
  12. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Krümmung der Schicht einer Krümmung des medizinischen Instruments entspricht.
  13. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl von Daten für eine „Endoscopic-View"-Darstellung entspricht, wobei die „Endoscopic-View"-Darstellung eine Ansicht ausgehend von dem Instrumenten-Bilddatenpunkt (18) in Richtung des Ziel-Bilddatenpunkts (20, 22) ist.
  14. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl von Daten für eine Maximum-Intensity-Projection-Darstellung (MIP), eine Shaded-Surface-Display-Darstellung (SSD) oder eine Volumen-Rendering-Technique-Darstellung (VRT) entspricht.
  15. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch, den weiteren Schritt, dass während des interventionellen Eingriffs eine Röntgenaufnahme aufgenommen wird, deren Perspektive der 2-dimensionalen Darstellung entspricht, wobei in der Röntgenaufnahme durch Einblendung von Symbolen veranschaulicht wird: – die Lage des Instrumenten-Bilddatenpunkts (18) und/oder – die Lage des Ziel-Bilddatenpunkts (20, 22) und/oder – die Sollbewegungsrichtung des Instruments, vorzugsweise vom Instrumenten-Bilddatenpunkt (18) zum Ziel-Bilddatenpunkt (20, 22).
DE102005045602.2A 2005-09-23 2005-09-23 Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs Expired - Fee Related DE102005045602B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102005045602.2A DE102005045602B4 (de) 2005-09-23 2005-09-23 Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
US11/526,176 US7860282B2 (en) 2005-09-23 2006-09-22 Method for supporting an interventional medical operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005045602.2A DE102005045602B4 (de) 2005-09-23 2005-09-23 Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs

Publications (2)

Publication Number Publication Date
DE102005045602A1 true DE102005045602A1 (de) 2007-04-26
DE102005045602B4 DE102005045602B4 (de) 2017-07-13

Family

ID=37905043

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005045602.2A Expired - Fee Related DE102005045602B4 (de) 2005-09-23 2005-09-23 Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs

Country Status (2)

Country Link
US (1) US7860282B2 (de)
DE (1) DE102005045602B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8493409B2 (en) * 2009-08-18 2013-07-23 Behavioral Recognition Systems, Inc. Visualizing and updating sequences and segments in a video surveillance system
EP2547262B1 (de) * 2010-03-19 2014-10-29 Koninklijke Philips N.V. Automatische positionierung einer bildgebungsebene in der ultraschallbildgebung
US9275302B1 (en) * 2012-08-24 2016-03-01 Amazon Technologies, Inc. Object detection and identification
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US20200230391A1 (en) * 2019-01-18 2020-07-23 Becton, Dickinson And Company Intravenous therapy system for blood vessel detection and vascular access device placement
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
DE102022112740A1 (de) 2022-05-20 2023-11-23 InLine-Med GmbH Verfahren und Computerprogramm zur Visualisierung von Tomografiedaten

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313567A (en) * 1991-06-13 1994-05-17 At&T Bell Laboratories Arrangement for determining and displaying volumetric data in an imaging system
DE10083899T1 (de) * 1999-11-19 2002-03-07 Gen Electric Verfahren und Vorrichtung zur Neuformatierung rohrförmiger volumetrischer Körper
DE10254908A1 (de) * 2002-11-25 2004-06-17 Siemens Ag Verfahren zum Herstellen eines Bildes
EP1466552A1 (de) * 2002-07-31 2004-10-13 Olympus Corporation Endoskop
US20050090742A1 (en) * 2003-08-19 2005-04-28 Yoshitaka Mine Ultrasonic diagnostic apparatus
US20050197558A1 (en) * 2004-03-04 2005-09-08 Williams James P. System and method for performing a virtual endoscopy in a branching structure

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
JP4443672B2 (ja) * 1998-10-14 2010-03-31 株式会社東芝 超音波診断装置
US7333648B2 (en) * 1999-11-19 2008-02-19 General Electric Company Feature quantification from multidimensional image data
US6961608B2 (en) * 2000-06-05 2005-11-01 Kabushiki Kaisha Toshiba Interventional MR imaging with detection and display of device position
KR20030058423A (ko) * 2001-12-31 2003-07-07 주식회사 메디슨 중재적 초음파를 사용하는 3 차원 초음파 진단 시스템에서검침 도구의 관찰 및 이의 대상체로의 진입을 용이하게하기 위한 방법 및 장치
US7831294B2 (en) * 2004-10-07 2010-11-09 Stereotaxis, Inc. System and method of surgical imagining with anatomical overlay for navigation of surgical devices
DE102005013835A1 (de) * 2005-03-24 2006-09-28 Siemens Ag Verfahren zum Unterstützen einer minimalinvasiven Intervention an einem Organ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313567A (en) * 1991-06-13 1994-05-17 At&T Bell Laboratories Arrangement for determining and displaying volumetric data in an imaging system
DE10083899T1 (de) * 1999-11-19 2002-03-07 Gen Electric Verfahren und Vorrichtung zur Neuformatierung rohrförmiger volumetrischer Körper
EP1466552A1 (de) * 2002-07-31 2004-10-13 Olympus Corporation Endoskop
DE10254908A1 (de) * 2002-11-25 2004-06-17 Siemens Ag Verfahren zum Herstellen eines Bildes
US20050090742A1 (en) * 2003-08-19 2005-04-28 Yoshitaka Mine Ultrasonic diagnostic apparatus
US20050197558A1 (en) * 2004-03-04 2005-09-08 Williams James P. System and method for performing a virtual endoscopy in a branching structure

Also Published As

Publication number Publication date
DE102005045602B4 (de) 2017-07-13
US20070086633A1 (en) 2007-04-19
US7860282B2 (en) 2010-12-28

Similar Documents

Publication Publication Date Title
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE19963440C2 (de) Verfahren und System zur Visualisierung eines Gegenstandes
DE102007013407B4 (de) Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation
DE102005045602B4 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE102005035929A1 (de) Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens
DE102009035441B4 (de) Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers
DE102006046735A1 (de) Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz
WO2002009611A9 (de) Verfahren zum navigieren im körperinneren anhand dreidimensional visualisierter strukturen
EP2044975B1 (de) Verfahren zum Registrieren von 2D-Bilddaten, Computerprogrammprodukt, Navigationsverfahren zum Navigieren eines Behandlungsgerätes im Bereich der Medizin und Recheneinrichtung zum Registrieren von 2D-Bilddaten
DE102006003126A1 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten
DE4117117A1 (de) Dreidimensionale darstellung von raeumlichen strukturen
DE102004043676A1 (de) Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102004022902A1 (de) Verfahren zur medizinischen Bilddarstellung und - verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE102008045276B4 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
DE10338145B4 (de) Verfahren zur Darstellung von 3D Bilddaten
DE10356272B4 (de) Verfahren zur Navigation in 3-dimensionalen Bilddaten
DE102013211239A1 (de) Verfahren zur Bildunterstützung und Vorrichtung
DE10243162B4 (de) Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt
DE102012224057B4 (de) Verfahren und Vorrichtung zur Bildunterstützung
DE102006032990A1 (de) Verfahren und Vorrichtung zur Bestimmung des räumlichen Verlaufs einer Gefäßachse in Volumendatensätzen der medizinischen Bildgebung
DE102006048834A1 (de) Bildliche Darstellung dreidimensionaler Datensätze
DE102008025535B4 (de) Verfahren zur Sichtung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034100000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee