DE102005045602A1 - Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs - Google Patents
Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs Download PDFInfo
- Publication number
- DE102005045602A1 DE102005045602A1 DE102005045602A DE102005045602A DE102005045602A1 DE 102005045602 A1 DE102005045602 A1 DE 102005045602A1 DE 102005045602 A DE102005045602 A DE 102005045602A DE 102005045602 A DE102005045602 A DE 102005045602A DE 102005045602 A1 DE102005045602 A1 DE 102005045602A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- instrument
- data point
- dimensional
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
Abstract
Bei einem Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs wird vor dem Verfahren ein 3-dimensionaler Bilddatensatz aufgenommen. Ein Ortungssystem wird mit dem Koordinatensystem des 3-dimensionalen Bilddatensatzes gekoppelt. Das Instrument wird geortet und die Position des Instruments in dem 3-dimensionalen Bilddatensatz als Instrumenten-Bilddatenpunkt 18 festgelegt. Es erfolgt die Festlegung von zwei weiteren Ziel-Bilddatenpunkten (20, 22) in der Zielregion, in der das Instrument zu führen ist. Hierdurch ist eine Ebene definiert. In dieser Ebene werden die Bilddaten zur einer 2-dimensionalen Darstellung verwendet. Auf der Darstellung sind sowohl der Instrumenten-Bilddatenpunkt als auch die beiden Ziel-Bilddatenpunkte zu erkennen, so dass die Zielregion eines interventionellen Eingriffs und ein interventionelles medizinisches Gerät gleichzeitig auf einem Bild dargestellt sind. Das Bild kann während des interventionellen medizinischen Eingriffs nachgeführt werden.
Description
- Die Erfindung betrifft ein Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs aufgrund eines vor dem Eingriff erzeugten 3-dimensionalen Bilddatensatzes.
- Zu den interventionellen medizinischen Eingriffen gehören die Platzierung von Kathetern, Biopsien (Gewebeentnahmen) und TIPS (transingular intrahepatic porosystemic shunt, Leberpunktion). Dabei werden 3-dimensionale Informationen der unterschiedlichsten Art verwendet, beispielsweise solche, die aufgrund von Kernresonanzabbildung (MR), Röntgen-Computertomographie (CT), 3D-Röntgen-Rotationsangiographie oder mit 3D-Ultraschall gewonnen wurden.
- Diese 3-dimensionalen Bildinformationen werden insbesondere bei der vorherigen Planung interventioneller Eingriffe genutzt. Hierbei dienen die 3-dimensionalen Bilddaten dazu, eine Information über die Anatomie des Patienten zu geben, beispielsweise um die Lage eines Tumors im Körper eindeutig zu bestimmen. Bei der eigentlichen Durchführung des interventionellen Eingriffs werden bisher die 3-dimensionalen Bildinformationen wenig genutzt. In der Regel erfolgt dabei dann eine 2-dimensionale Bildgebung mit Hilfe von Röntgenanlagen oder von elektromagnetischen Ordnungssystemen (zum Beispiel vom Typ Biosense Carto XP).
- Es ist auch möglich, die 3-dimensionalen Bilddaten während der Durchführung des interventionellen Eingriffs darzustellen. Eine Möglichkeit dafür ist die Verwendung von MPR-Schichten (MPR bedeutet Multiplanare Rekonstruktion). Dabei wählt der Nutzer in einem 3-dimensionalen Bilddatensatz die Dicke und die Lage der darzustellenden Schicht aus. An sich würde man in einem solchen Bild ausschließlich die Zielregion sehen, d. h. den Bereich der Anatomie des Patientenkörpers, in den das Instrument zu verbringen ist. In den 2-dimensionalen Röntgenbildern hingegen ist das Instrument zu sehen. So wird im Stand der Technik ein fusioniertes Bild erzeugt, in dem gleichzeitig das Instrument gezeigt ist, sowie die Zielregion, in die das Instrument zu verbringen ist. Dadurch, dass der Nutzer die Schicht von Hand auswählt, ist die Visualisierung der 3-dimensionalen Bilddaten mühselig, eine einfache Nachführung ist bereits nicht möglich, und die Visualisierung muss während der Führung des Instruments immer wieder angepasst werden. Dies bedeutet einen erheblichen Zeitaufwand während des interventionellen Eingriffs.
- Im Stand der Technik werden auch Ortungssysteme verwendet, beispielsweise elektrische Ortungssysteme wie das Biosense Carto XP oder auf Röntgentechnik basierende Ortungssysteme. Diese Ortungssysteme liefern jedoch hauptsächlich die Koordinaten der Spitze des Instruments, wobei die Art und Weise der Darstellung der Information von Hand gewählt werden muss.
- Es ist Aufgabe der Erfindung, die Nutzung der 3-dimensionalen Bilddaten während eines interventionellen medizinischen Eingriffs auszuweiten und den interventionellen medizinischen Eingriff dadurch besser zu unterstützen.
- Die Erfindung stellt zur Lösung der Aufgabe ein Verfahren gemäß Patentanspruch 1 bereit.
- Das erfindungsgemäße Verfahren beginnt also mit dem Schritt, dass ein Ortungssystem für ein für den Eingriff verwendetes medizinisches Instrument mit dem Koordinatensystem des 3-dimensionalen Bilddatensatzes gekoppelt wird. Man spricht hier davon, dass das 3D-Volumen zu dem Ortungssystem „registriert" wird.
- Wird nun das Instrument mit Hilfe des Ortungssystems geortet, so lässt sich in dem 3-dimensionalen Bilddatensatz ein die Position des Instruments charakterisierender Instrumenten-Bilddatenpunkt bestimmen. Durch die Kopplung des Ortungssys tems mit dem 3-dimensionalen Bilddatensatz wird also die Information betreffend die Koordinaten der Instrumentenspitze automatisch an das Bildverarbeitungssystem weitergegeben, und ein Punkt aus dem 3-dimensionalen Bilddatensatz kann der Instrumentspitze zugeordnet werden.
- Als nächster Schritt erfolgt das Festlegen zumindest eines Ziel-Bilddatenpunkts in dem 3-dimensionalen Bilddatensatz in einer Zielregion, in die das Instrument zu führen ist. Anschließend erfolgt die Festlegung einer für die 2-dimensionale Darstellung geeigneten Datenauswahl aus dem 3-dimensionalen Datensatz, wobei die Datenauswahl mit Hilfe des Instrumenten-Bilddatenpunkts und des Ziel-Bilddatenpunkts definiert bzw. eingeschränkt wird.
- Unter Datenauswahl wird hier alles verstanden, was mit herkömmlichen Abbildungsverfahren 2-dimensional auf dem Bildschirm darstellbar ist. Der Stand der Technik bietet hierfür zahlreiche Verfahren an, wie 3-dimensionale Daten so ausgewählt werden können, dass eine 2-dimensionale Abbildung ermöglicht und sinnvoll ist. Je nach Art der Datenauswahl ist festzulegen, was oben unter „definiert wird" zu verstehen ist. In der Regel werden Instrumenten- und Ziel-Bilddatenpunkte Teil der Datenauswahl sein, wobei zwei Punkte bereits ausreichend stark einschränkend sind, so dass für die abschließende Festlegung der Datenauswahl nicht mehr viele weitere Schritte erforderlich sind.
- Das erfindungsgemäße Verfahren umfasst schließlich das 2-dimensionale Darstellen der Datenauswahl auf einem Bildschirm während des interventionellen Eingriffs.
- Vorzugsweise erfolgt hierbei ein Nachführen, insbesondere in Echtzeit. Mit anderen Worten wird das medizinische Instrument während seiner Verbringung in die Zielregion wiederholt geortet, wobei wiederholt ein Instrumenten-Bilddatenpunkt festgelegt wird. Bei unverändertem Ziel-Bilddatenpunkt werden jedes Mal die Schritte der Festlegung der Datenauswahl und der 2- dimensionalen Darstellung der Datenauswahl wiederholt, wobei die Schritte des Verfahrens (mit Ausnahme des Festlegens des Ziel-Bilddatenpunkts) insbesondere in Echtzeit bei der Bewegung des medizinischen Instruments wiederholt werden.
- Während der interventionelle medizinische Eingriff stattfindet, wird also die von der gegenwärtigen Lage des Instruments und von der Zielregion abhängige 2-dimensionale Darstellung wiederholt geändert. Dadurch wird es möglich, dem Nutzer gleichzeitig die Zielregion und die Lage des Instruments darzustellen, so dass er auch bei Bewegung des Instruments weiterverfolgen kann, wie dieses relativ zur Zielregion liegt, und wobei er hierbei die Auswahl aus den 3-dimensionalen Bilddaten veranschaulicht hat, so dass er auf dem Bild verfolgen kann, ob das Instrument ungestört in Richtung der Zielregion bewegt werden kann, oder ob Hindernisse den Weg des Instruments stören.
- Bei der Erfindung erfolgt das Festlegen des Ziel-Bilddatenpunkts beispielsweise ähnlich wie bei der bisherigen Planung des interventionellen Eingriffs durch den Benutzer selbst. Er kann den Ziel-Bilddatenpunkt interaktiv (d. h. durch Betätigung einer Benutzerschnittstelle, wie etwa einer Maus) direkt festlegen, d. h. einen entsprechenden Punkt in dem 3-dimensionalen Bilddatensatz beispielsweise anklicken, um den Ziel-Bilddatenpunkt zu definieren. Neben dieser direkten Festlegung (eine Eingabe, ein Bilddatenpunkt) kann der Ziel-Bilddatenpunkt auch aus mehreren von dem Benutzer interaktiv eingegebenen Datenwerten festgelegt werden. Da der Ziel-Bilddatenpunkt die Zielregion repräsentieren soll, kann es notwendig sein, dass der Benutzer mehrere Punkte interaktiv festlegt, welche Teil der Zielregion sind.
- Beispielsweise kann der Benutzer eine Fläche festlegen, die die Zielregion umgibt. Der Schwerpunkt der Zielregion kann dann berechnet werden und als Ziel-Bilddatenpunkt festgelegt werden. Hierbei muss die Fläche nicht unbedingt vollständig die Zielregion umgeben, es können Verfahren zur Berechnung des Schwerpunkts verwendet werden, bei denen nur auf einer Seite die Oberfläche der Zielregion festgelegt ist, beispielsweise wenn von einer gewissen Symmetrie der Zielregion ausgegangen wird. Es könnte beispielsweise mit einer idealisierten Kugelform gearbeitet werden.
- Anstelle der Eingabe einer vollständigen Fläche kann der Benutzer auch eine Vielzahl von Bilddatenpunkten interaktiv bestimmen, aus denen ihr Schwerpunkt ermittelt wird, der dann als Ziel-Bilddatenpunkt festgelegt wird.
- Bei einer bevorzugten Ausführungsform der Erfindung entspricht die Datenauswahl der Auswahl einer ebenen multiplanaren Rekonstruktionsschicht (MPR-Schicht) aus dem 3-dimensionalen Datensatz.
- Die Verwendung einer ebenen Schicht ermöglicht es, dass eine solche Ebene definiert wird, welche den Instrumenten-Bilddatenpunkt und den Ziel-Bilddatenpunkt umfasst.
- Vorzugsweise wird interaktiv ein weiterer Ziel-Bilddatenpunkt festgelegt. Als Schichtebene wird dann die durch den Instrumenten-Bilddatenpunkt und die beiden Ziel-Bilddatenpunkte verlaufende Ebene festgelegt.
- Gibt der Benutzer keine weiteren Ziel-Bilddatenpunkte ein, so muss zur Definition der Ebene zwischen einer Mehrzahl von Ebenen ausgewählt werden, in denen jeweils die Geradenverbindung von Instrumenten-Bilddatenpunkt und Ziel-Bilddatenpunkt enthalten ist. Dem Benutzer stehen also eine Mehrzahl von Ebenen zur Auswahl, welche gewissermaßen verschiedene Kippungen repräsentieren, wobei die Drehachse bei der Kippung die Geradenverbindung von Instrumenten-Bilddatenpunkt und Ziel-Bilddatenpunkt ist. Der Benutzer wählt dann zur Festlegung der Schichtebene eine der Ebenen aus, beispielsweise durch numerische Eingabe eines Kippwinkels oder durch „Blättern" durch den 3-dimensionalen Bilddatensatz.
- Bei der oben erwähnten bevorzugten Ausführungsform, bei der ein Nachführen bei der Bewegung des Instruments stattfindet, kann man hierbei vorsehen, dass der Kippwinkel jeweils konstant bleibt, solange der Benutzer nicht interaktiv eine Änderung im Kippwinkel festlegt.
- Das erfindungsgemäße Verfahren kann den weiteren Schritt umfassen, dass eine zweite Datenauswahl festgelegt wird, die einer ebenen MPR-Schicht senkrecht zu der ersten MPR-Schicht entspricht, die ebenfalls 2-dimensional dargestellt wird. Dem Benutzer werden somit zwei zueinander senkrechte Schichten dargestellt. Die Orientierung der zweiten Ebene kann so festgelegt sein, dass auf halbem Weg zwischen dem ersten Zieldatenpunkt und dem weiteren Zieldatenpunkt ein Schwerpunkt der beiden Ziel-Bilddatenpunkte ermittelt wird, dieser mit dem Instrumenten-Bilddatenpunkt verbunden wird, und dann senkrecht zu der ersten Ebene eine zweite Ebene definiert wird, welche die Verbindung aus diesem Schwerpunkt und dem Instrumenten-Bilddatenpunkt enthält.
- Die vorliegende Erfindung ist nicht auf die Verwendung von ebenen multiplanaren Rekonstruktionsschichten beschränkt. Insbesondere kann die Datenauswahl der Auswahl einer gekrümmten multiplanaren Rekonstruktionsschicht entsprechen. Die Verwendung einer gekrümmten multiplanaren Rekonstruktionsschicht ist insbesondere dann sinnvoll, wenn das medizinische Instrument selbst eine Krümmung umfasst. Dies kann dann der Fall sein, wenn bei der Intervention Körperteile (Organe) einem geraden Einführen des Instruments im Wege stehen, so dass durch die Krümmung des Instruments ein gekrümmter Weg des Instruments zur Zielregion vorgegeben ist. Bevorzugt entspricht somit die Krümmung der Schicht einer Krümmung des medizinischen Instruments. Definieren der Instrumenten-Bilddatenpunkt und der Ziel-Bilddatenpunkt die Datenauswahl so, dass sie Teile der gekrümmten Schicht sind, enthält die gekrümmte MPR-Schicht somit einen Pfad vom Instrumenten- zum Ziel-Bilddatenpunkt, der einem realistischen zukünftigen Pfad des Instruments entspricht.
- Es war oben bereits erwähnt worden, dass die Datenauswahl, welche durch die beiden Bilddatenpunkte definiert wird, jegliche mögliche Datenauswahl sein kann, die eine 2-dimensionale Darstellung von 3-dimensionalen Bilddaten ermöglicht. Eine völlig andere Darstellung ist zum Beispiel die „Endoscopic-View"-Darstellung. Die „Endoscopic-View"-Darstellung ist eine Darstellung, bei der die Sichtweise eines Endoskops simuliert wird. Da die Datenauswahl bei der vorliegenden Erfindung bevorzugt vollautomatisch aufgrund der beiden Bilddatenpunkte, Ziel-Bilddatenpunkt und Instrumenten-Bilddatenpunkt, festgelegt werden soll, wird als „Endoscopic-View"-Darstellung eine Darstellung definiert, die von dem Instrumenten-Bilddatenpunkt ausgeht und in Richtung des Ziel-Bilddatenpunkts weist bzw. schaut. Bei dieser Darstellung muss der Ziel-Bilddatenpunkt nicht selbst zu erkennen sein, sondern kann gewissermaßen „hinter" der Darstellung liegen. Auch der Instrumenten-Bilddatenpunkt ist selbst nicht zu erkennen, sondern ist Ausgangspunkt der perspektivischen Darstellung.
- Als weitere mögliche Techniken zur Definition einer Datenauswahl gibt es die Maximum-Intensity-Projection-Darstellung (MIP), die Shaded-Surface-Display-Darstellung (SSD) oder die Volumen-Rendering-Technique-Darstellung (VRT).
- Bei der vorliegenden Erfindung wird vollautomatisch oder aufgrund der Eingabe von wenigen Daten eine 2-dimensionale Darstellung aus den 3-dimensionalen Bilddaten ausgewählt. Dies sind die Bilddaten, die vor dem interventionellen Eingriff aufgenommen worden sind. Wie im Stand der Technik können auch weiterhin Röntgenaufnahmen während des interventionellen Eingriffs vorgenommen werden. Bevorzugt entspricht deren Perspektive der 2-dimensionalen Darstellung. Dies bezieht sich vor allem auf den Fall der Verwendung von ebenen MPR-Schichten. In diesem Fall kann es hilfreich sein, wenn die Position des C-Arms des Röntgengeräts, an dem die Röntgenröhre und der Detektor montiert sind, automatisch so verfahren wird, dass der Röntgenzentralstrahl der Röntgenanlage senkrecht auf die 2-dimensional auf dem Bildschirm dargestellte Hauptschicht zeigt. In diesem Falle wird eine Überlagerung des 2-dimensionalen Röntgenbildes der dargestellten Schicht des 3-dimensionalen Bilddatensatzes möglich. (Hierzu muss lediglich das Röntgensystem zum 3-dimensionalen Datensatz „registriert" werden, d. h. die Koordinatensysteme miteinander gekoppelt werden.) Es wird dann ermöglicht, in die Röntgenaufnahme oder die kombinierte Darstellung von Röntgenaufnahme und MPR-Schicht durch Einblendung von Symbolen zu veranschaulichen: Die Lage des Instrumenten-Bilddatenpunkts, die Lage des Ziel-Bilddatenpunkts und/oder die Sollbewegungsrichtung des Instruments. Letztere wird vorzugsweise durch einen Pfeil vom Instrumenten-Bilddatenpunkt zum Ziel-Bilddatenpunkt veranschaulicht.
- Es wird nun eine bevorzugte Ausführungsform der Erfindung unter Bezug auf die Zeichnungen beschrieben, in denen:
-
1 schematisch ein Volumen darstellt, welches einen 3-dimensionalen Bilddatensatz repräsentiert und veranschaulicht, wie eine Schicht aus diesem Volumen auszuwählen ist, und -
2 schematisch die Darstellung der ausgewählten Schicht zeigt. - Der in
1 gezeigte Kasten10 steht repräsentativ für ein Volumen, das von einem 3-dimensionalen Bilddatensatz erfüllt wird. In dem Volumen10 ist ein zu punktierendes Gefäß12 sowie ein weiteres Organ14 gezeigt. Dem Gefäß12 und dem Organ14 sind entsprechende Bilddaten(punkte) in dem 3-dimensionalen Bilddatensatz zugeordnet. - Während einer Punktierung wird die bereits in den Körper eingeführte Nadel mit Hilfe eines Ortungssystems geortet. Die Nadel ist schematisch in dem Volumen
10 dargestellt und mit16 bezeichnet. Geortet wird die Nadelspitze. In dem 3-dimen sionalen Bilddatensatz wird ein Instrumenten-Bilddatenpunkt18 bestimmt, der der Position der Nadel16 entspricht. - Es wird nun durch einen Benutzer, der den 3-dimensionalen Bilddatensatz ansieht, interaktiv ein Ziel-Bilddatenpunkt
20 sowie ein weiterer Ziel-Bilddatenpunkt22 festgelegt. Die beiden Punkte20 und22 sind in der Zielregion gewählt, in die das interventionelle Instrument, nämlich die Nadel16 eingefügt werden soll. Es handelt sich vorliegend um zwei Bereiche des zu punktierenden Gefäßes12 . - Die drei Punkte
18 ,20 ,22 liegen nicht auf einer Geraden, so dass durch diese drei Punkte eine Ebene E definiert werden kann. Diese Ebene wird nun als Schnittebene für einen MPR-Schnitt ausgewählt. Mit anderen Worten werden entlang dieser Ebene E aus dem 3-dimensionalen Bilddatensatz Bilddatenpunkte herausgenommen und 2-dimensional dargestellt. - Die 2-dimensionale Darstellung der Bilddatenpunkte der Ebene E ist in
2 gegeben. Man sieht in der Darstellung zum einen die ohnehin in dem 3-dimensionalen Bilddatensatz vorhandenen anatomischen Teile des Patienten, nämlich das zu punktierende Gefäß12 und das Organ14 . Ferner sind erfindungsgemäß die drei Punkte18 ,20 und22 eingezeichnet, nämlich der Instrumenten-Bilddatenpunkt18 , an dem schematisch auch die Nadel16 dargestellt sein kann (siehe2 ), sowie die beiden Ziel-Bilddatenpunkte20 und22 . - Für einen Benutzer, der durch die interaktiven Eingaben der Ziel-Bilddatenpunkte
20 und22 seine Zielregion umrissen hat, ist die Darstellung gemäß2 von außerordentlichem Nutzen. Gezeigt ist in einem einzigen Bild sowohl die Instrumentenspitze18 als auch die Zielregion, der Ausschnitt aus dem Gefäß12 . Der Benutzer weiß nun, wie er die Nadel16 zu führen hat, damit das Organ14 nicht beschädigt wird und andererseits die Zielregion, nämlich das zu punktierende Gefäß12 , erreicht wird. - Bei der Erfindung wird die Zielregion mit den beiden Ziel-Bilddatenpunkten
20 und22 ein einziges Mal festgelegt, die Ortung des Punkts der Spitze der Nadel16 erfolgt mehrfach. Dadurch kann die Darstellung gemäß2 regelmäßig an die aktuelle Position der Nadelspitze angepasst werden und jedes Mal dem Benutzer in optimierter Weise die Information aus dem 3-dimensionalen Bilddatensatz zur Verfügung stellen. - Die Erfindung ist nicht auf die interaktive Eingabe von zwei Ziel-Bilddatenpunkt
20 und22 festgelegt. Beispielsweise kann lediglich ein einziger Ziel-Bilddatenpunkt20 festgelegt sein. Die zu definierende Ebene E liegt dann bekanntlich so, dass sie die Gerade vom Punkt18 zum Punkt20 umfasst, und eine Vielzahl von möglichen Ebenen entspricht einer Drehung von Ebenen um diese Gerade. Der Benutzer kann dann sich diese Ebenen anschauen und eine geeignete Orientierung auswählen. - Typischerweise geschieht die Festlegung der Zielregion bei der Planung des interaktiven Eingriffs. Im veranschaulichten Beispiel werden die Ziel-Bilddatenpunkte
20 und22 also vor der eigentlichen Intervention festgelegt. Während der Intervention erfolgt die Ortung der Nadelspitze des Instrumenten-Bilddatenpunkts18 und die kurzfristige Festlegung der Ebene E.
Claims (15)
- Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs aufgrund eines vor dem Eingriff erzeugten 3-dimensionalen Bilddatensatzes mit den Schritten: – Koppeln eines Ortungssystems für ein für den Eingriff verwendetes medizinisches Instrument mit dem Koordinatensystem des 3-dimensionalen Bilddatensatzes, Orten des Instruments und Bestimmen eines die Position des Instruments charakterisierenden Instrumenten-Bilddatenpunkts (
18 ) in dem 3-dimensionalen Bilddatensatz, – Festlegen zumindest eines Ziel-Bilddatenpunkts (20 ,22 ) in dem 3-dimensionalen Bilddatensatz in einer Zielregion (12 ), in die das Instrument zu führen ist, – Festlegen einer für die 2-dimensionale Darstellung geeigneten Datenauswahl aus dem 3-dimensionalen Datensatz, wobei die Datenauswahl mit Hilfe des Instrumenten-Bilddatenpunkts (18 ) und des Ziel-Bilddatenpunkts (20 ,22 ) definiert wird, und – 2-dimensionales Darstellen der Datenauswahl auf einem Bildschirm während des interventionellen Eingriffs. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das medizinische Instrument während seiner Verbindung in die Zielregion wiederholt geortet wird, wobei wiederholt ein Instrumenten-Bilddatenpunkt (
18 ) festgelegt wird, und dass jedes Mal bei unverändertem Ziel-Bilddatenpunkt (20 ,22 ) die Schritte der Festlegung der Datenauswahl und der 2-dimensionalen Darstellung der Datenauswahl wiederholt werden, wobei die Wiederholungen von Schritten vorzugsweise in Echtzeit bei der Bewegung des medizinischen Instruments erfolgen. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Ziel-Bilddatenpunkt (
20 ,22 ) interaktiv durch einen Benutzer direkt festgelegt wird. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Ziel-Bilddatenpunkt (
20 ,22 ) aus den von einem Benutzer interaktiv eingegebenen Datenwerten festgelegt wird. - Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Benutzer eine Fläche festlegt, die die Zielregion umgibt, und dass der Ziel-Bilddatenpunkt der Schwerpunkt der Zielregion ist.
- Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Benutzer eine Vielzahl von Bilddatenpunkten interaktiv bestimmt, aus denen ihr Schwerpunkt ermittelt und als Ziel-Bilddatenpunkt festgelegt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl einer ebenen multiplanaren Rekonstruktionsschicht (MPR-Schicht) aus dem 3-dimensionalen Datensatz entspricht.
- Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Benutzer interaktiv einen weiteren Ziel-Bilddatenpunkt (
22 ) festlegt und als Schichtebene (E) die durch den Instrumenten-Bilddatenpunkt (18 ) und die beiden Ziel-Bilddatenpunkte (20 ,22 ) verlaufende Ebene (E) festgelegt wird. - Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass dem Benutzer eine Mehrzahl von Ebenen zur Auswahl vorgegeben wird, in denen jeweils die Geradenverbindung von Instrumenten-Bilddatenpunkt (
18 ) und Ziel-Bilddatenpunkt (20 ) verläuft und dass der Benutzer zur Festlegung der Schichtebene eine der Ebenen auswählt. - Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass es die weiteren Schritte umfasst, dass eine zweite Datenauswahl festgelegt wird, die einer weiteren ebenen MPR-Schicht senkrecht zu der ersten MPR-Schicht entspricht und dass diese zweite Datenauswahl 2-dimensional dargestellt wird.
- Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl einer gekrümmten multiplanaren Rekonstruktionsschicht (MPR-Schicht) aus dem 3-dimensionalen Datensatz entspricht.
- Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Krümmung der Schicht einer Krümmung des medizinischen Instruments entspricht.
- Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl von Daten für eine „Endoscopic-View"-Darstellung entspricht, wobei die „Endoscopic-View"-Darstellung eine Ansicht ausgehend von dem Instrumenten-Bilddatenpunkt (
18 ) in Richtung des Ziel-Bilddatenpunkts (20 ,22 ) ist. - Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Datenauswahl der Auswahl von Daten für eine Maximum-Intensity-Projection-Darstellung (MIP), eine Shaded-Surface-Display-Darstellung (SSD) oder eine Volumen-Rendering-Technique-Darstellung (VRT) entspricht.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch, den weiteren Schritt, dass während des interventionellen Eingriffs eine Röntgenaufnahme aufgenommen wird, deren Perspektive der 2-dimensionalen Darstellung entspricht, wobei in der Röntgenaufnahme durch Einblendung von Symbolen veranschaulicht wird: – die Lage des Instrumenten-Bilddatenpunkts (
18 ) und/oder – die Lage des Ziel-Bilddatenpunkts (20 ,22 ) und/oder – die Sollbewegungsrichtung des Instruments, vorzugsweise vom Instrumenten-Bilddatenpunkt (18 ) zum Ziel-Bilddatenpunkt (20 ,22 ).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005045602.2A DE102005045602B4 (de) | 2005-09-23 | 2005-09-23 | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs |
US11/526,176 US7860282B2 (en) | 2005-09-23 | 2006-09-22 | Method for supporting an interventional medical operation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005045602.2A DE102005045602B4 (de) | 2005-09-23 | 2005-09-23 | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102005045602A1 true DE102005045602A1 (de) | 2007-04-26 |
DE102005045602B4 DE102005045602B4 (de) | 2017-07-13 |
Family
ID=37905043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005045602.2A Expired - Fee Related DE102005045602B4 (de) | 2005-09-23 | 2005-09-23 | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs |
Country Status (2)
Country | Link |
---|---|
US (1) | US7860282B2 (de) |
DE (1) | DE102005045602B4 (de) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8493409B2 (en) * | 2009-08-18 | 2013-07-23 | Behavioral Recognition Systems, Inc. | Visualizing and updating sequences and segments in a video surveillance system |
EP2547262B1 (de) * | 2010-03-19 | 2014-10-29 | Koninklijke Philips N.V. | Automatische positionierung einer bildgebungsebene in der ultraschallbildgebung |
US9275302B1 (en) * | 2012-08-24 | 2016-03-01 | Amazon Technologies, Inc. | Object detection and identification |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
US20200230391A1 (en) * | 2019-01-18 | 2020-07-23 | Becton, Dickinson And Company | Intravenous therapy system for blood vessel detection and vascular access device placement |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
DE102022112740A1 (de) | 2022-05-20 | 2023-11-23 | InLine-Med GmbH | Verfahren und Computerprogramm zur Visualisierung von Tomografiedaten |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313567A (en) * | 1991-06-13 | 1994-05-17 | At&T Bell Laboratories | Arrangement for determining and displaying volumetric data in an imaging system |
DE10083899T1 (de) * | 1999-11-19 | 2002-03-07 | Gen Electric | Verfahren und Vorrichtung zur Neuformatierung rohrförmiger volumetrischer Körper |
DE10254908A1 (de) * | 2002-11-25 | 2004-06-17 | Siemens Ag | Verfahren zum Herstellen eines Bildes |
EP1466552A1 (de) * | 2002-07-31 | 2004-10-13 | Olympus Corporation | Endoskop |
US20050090742A1 (en) * | 2003-08-19 | 2005-04-28 | Yoshitaka Mine | Ultrasonic diagnostic apparatus |
US20050197558A1 (en) * | 2004-03-04 | 2005-09-08 | Williams James P. | System and method for performing a virtual endoscopy in a branching structure |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5016173A (en) * | 1989-04-13 | 1991-05-14 | Vanguard Imaging Ltd. | Apparatus and method for monitoring visually accessible surfaces of the body |
JP4443672B2 (ja) * | 1998-10-14 | 2010-03-31 | 株式会社東芝 | 超音波診断装置 |
US7333648B2 (en) * | 1999-11-19 | 2008-02-19 | General Electric Company | Feature quantification from multidimensional image data |
US6961608B2 (en) * | 2000-06-05 | 2005-11-01 | Kabushiki Kaisha Toshiba | Interventional MR imaging with detection and display of device position |
KR20030058423A (ko) * | 2001-12-31 | 2003-07-07 | 주식회사 메디슨 | 중재적 초음파를 사용하는 3 차원 초음파 진단 시스템에서검침 도구의 관찰 및 이의 대상체로의 진입을 용이하게하기 위한 방법 및 장치 |
US7831294B2 (en) * | 2004-10-07 | 2010-11-09 | Stereotaxis, Inc. | System and method of surgical imagining with anatomical overlay for navigation of surgical devices |
DE102005013835A1 (de) * | 2005-03-24 | 2006-09-28 | Siemens Ag | Verfahren zum Unterstützen einer minimalinvasiven Intervention an einem Organ |
-
2005
- 2005-09-23 DE DE102005045602.2A patent/DE102005045602B4/de not_active Expired - Fee Related
-
2006
- 2006-09-22 US US11/526,176 patent/US7860282B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313567A (en) * | 1991-06-13 | 1994-05-17 | At&T Bell Laboratories | Arrangement for determining and displaying volumetric data in an imaging system |
DE10083899T1 (de) * | 1999-11-19 | 2002-03-07 | Gen Electric | Verfahren und Vorrichtung zur Neuformatierung rohrförmiger volumetrischer Körper |
EP1466552A1 (de) * | 2002-07-31 | 2004-10-13 | Olympus Corporation | Endoskop |
DE10254908A1 (de) * | 2002-11-25 | 2004-06-17 | Siemens Ag | Verfahren zum Herstellen eines Bildes |
US20050090742A1 (en) * | 2003-08-19 | 2005-04-28 | Yoshitaka Mine | Ultrasonic diagnostic apparatus |
US20050197558A1 (en) * | 2004-03-04 | 2005-09-08 | Williams James P. | System and method for performing a virtual endoscopy in a branching structure |
Also Published As
Publication number | Publication date |
---|---|
DE102005045602B4 (de) | 2017-07-13 |
US20070086633A1 (en) | 2007-04-19 |
US7860282B2 (en) | 2010-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
DE19963440C2 (de) | Verfahren und System zur Visualisierung eines Gegenstandes | |
DE102007013407B4 (de) | Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation | |
DE102005045602B4 (de) | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs | |
DE102005035929A1 (de) | Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens | |
DE102009035441B4 (de) | Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers | |
DE102006046735A1 (de) | Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz | |
WO2002009611A9 (de) | Verfahren zum navigieren im körperinneren anhand dreidimensional visualisierter strukturen | |
EP2044975B1 (de) | Verfahren zum Registrieren von 2D-Bilddaten, Computerprogrammprodukt, Navigationsverfahren zum Navigieren eines Behandlungsgerätes im Bereich der Medizin und Recheneinrichtung zum Registrieren von 2D-Bilddaten | |
DE102006003126A1 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten | |
DE4117117A1 (de) | Dreidimensionale darstellung von raeumlichen strukturen | |
DE102004043676A1 (de) | Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen | |
DE102017214447B4 (de) | Planare Visualisierung von anatomischen Strukturen | |
DE102004022902A1 (de) | Verfahren zur medizinischen Bilddarstellung und - verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt | |
DE102008045276B4 (de) | Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm | |
DE10338145B4 (de) | Verfahren zur Darstellung von 3D Bilddaten | |
DE10356272B4 (de) | Verfahren zur Navigation in 3-dimensionalen Bilddaten | |
DE102013211239A1 (de) | Verfahren zur Bildunterstützung und Vorrichtung | |
DE10243162B4 (de) | Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt | |
DE102012224057B4 (de) | Verfahren und Vorrichtung zur Bildunterstützung | |
DE102006032990A1 (de) | Verfahren und Vorrichtung zur Bestimmung des räumlichen Verlaufs einer Gefäßachse in Volumendatensätzen der medizinischen Bildgebung | |
DE102006048834A1 (de) | Bildliche Darstellung dreidimensionaler Datensätze | |
DE102008025535B4 (de) | Verfahren zur Sichtung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen | |
EP3626176B1 (de) | Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system | |
DE102012200686A1 (de) | Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8120 | Willingness to grant licences paragraph 23 | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: A61B0019000000 Ipc: A61B0034100000 |
|
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |
|
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |