DE102013213727A1 - Interventionelles Bildgebungssystem - Google Patents

Interventionelles Bildgebungssystem Download PDF

Info

Publication number
DE102013213727A1
DE102013213727A1 DE102013213727.3A DE102013213727A DE102013213727A1 DE 102013213727 A1 DE102013213727 A1 DE 102013213727A1 DE 102013213727 A DE102013213727 A DE 102013213727A DE 102013213727 A1 DE102013213727 A1 DE 102013213727A1
Authority
DE
Germany
Prior art keywords
intervention
data
instrument
display device
interventional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013213727.3A
Other languages
English (en)
Inventor
Thomas Hartkens
Thomas Redel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102013213727.3A priority Critical patent/DE102013213727A1/de
Priority to US14/013,152 priority patent/US9888889B2/en
Priority to CN201310383214.7A priority patent/CN104274194B/zh
Publication of DE102013213727A1 publication Critical patent/DE102013213727A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound

Abstract

Die Erfindung betrifft ein interventionelles medizinisches Diagnose- und/oder Therapysystem. Die Aufgabe der Erfindung besteht darin, ein interventionelles Bildgebungssystem und Verfahren anzugeben, das einen entsprechend einem Interventionsplan durchzuführenden Eingriff durch laufende Bildgebung, insbesondere Fluoroskopie, unterstützt und zu kontrollieren ermöglicht, bei dem gleichzeitig der Aufwand für Kalibrierung und Registrierung gering gehalten wird, und das ohne zusätzliches Ortungssystem auskommt. Ein Grundgedanke der Erfindung besteht in einem interventionellen Bildgebungssystem umfassend ein Bildgebungsgerät zur Aufnahme von Interventions-Daten eines Körpers, mindestens zwei mit dem Bildgebungsgerät aufnehmbare Positionsmarkierungen zur Markierung eines Interventions-Instruments, eine Anzeigevorrichtung zur Wiedergabe aufgenommener Interventions-Daten und Positionsmarkierungen, eine mit der Anzeigevorrichtung verbundene Navigationseinrichtung zum Laden von Prä-Interventions-Daten des Körpers, in denen ein Interventionsort des Körpers umfasst ist, und zum gegenseitigen Registrieren der Prä-Interventions-Daten mit den Interventions-Daten, wobei die Navigationseinrichtung dazu eingerichtet ist, die registrierten Prä-Interventions-Daten samt Interventionsort gemeinsam mit den Positionsmarkierungen auf der Anzeigevorrichtung wiederzugeben, wobei die Positionsmarkierungen Positionen, insbesondere koaxiale Positionen, entlang der Längsachse des Interventions-Instruments markieren. Damit ist ein System und Verfahren beschrieben, welches eine einfache manuelle Vorpositionierung erlaubt, leicht zum, bzw. vom Patiententisch weg bewegt werden kann, ohne vorherige Kalibrierung, Registrierung oder Ortungssystem auskommt, und eine extrem hohe Flexibilität erreicht.

Description

  • Die Erfindung betrifft ein interventionelles medizinisches Diagnose- und/oder Therapysystem.
  • Interventionelle Prozeduren, wie sie beispielsweise in der Radiologie angewendet werden, spielen bereits heute eine wichtige Rolle in der Diagnostik und Therapie vieler Erkrankungen. Beispielsweise werden gewisse Instrumente benutzt, z.B. Nadeln, um eine bestimmte Stelle im Körper oder innerhalb eines Organs von außen durch die Haut hindurch (perkutan) zu erreichen. Dies betrifft beispielsweise Punktionen, Biopsien, Ablationen oder Brachytherapien. Oder es werden Fixationen, z.B. Schrauben, gesetzt.
  • Aufgrund von technischen Weiterentwicklungen der Bildgebungssysteme, der sogenannten Modalitäten, wie z. B. der Computertomographie, der Magnetresonanztomographie oder der Angiographie, können entzündliche oder tumoröse Veränderungen in immer früheren Stadien entdeckt werden. Um den Patienten möglichst wenig zu belasten, werden immer häufiger minimalinvasive Eingriffe sehr frühzeitig vorgenommen, wenn die Veränderungen noch vergleichsweise wenig räumlich ausgedehnt sind. Zudem werden immer feinere Instrumente für Punktionen, Katheterisierung und Sondierung der Organsysteme entwickelt. Dadurch dass immer kleinere Zielbereiche im Körper mit immer feineren Instrumenten angegangen werden, werden auch immer präzisere und treffsichere Navigationsmethoden benötigt.
  • Da der Arzt das Instrument im Patientenkörper nicht direkt sehen kann, ist er auf die Unterstützung von bildgebenden Verfahren angewiesen. Idealerweise steht dem Arzt präinterventionell ein 3D Datensatz einer Modalität (z. B. Magnetresonanztomograph, Computertomograph, Angiographiegerät) zur Verfügung, in dem er die Zielregion erkennen und aufgrund der Physiologie den idealen Weg dorthin und damit den Eintrittspunkt des Instruments planen kann. In einer einfacheren Variante wird die Zielregion während der Intervention beispielsweise mittels eines C-Bogen Röntgengeräts, welches CT-Aufnahmen erstellen kann, identifiziert und die weitere Planung anhand der kombinierten Informationen aus 2D und 3D Daten des Röntgengeräts durchgeführt. Mit dieser Planung werden der Eintrittspunkt am Körper und die Orientierung des Interventions-Instruments, z.B. einer Nadel, festgelegt.
  • Im Allgemeinen wird eine Planung des Eintrittskanals des Instruments durch einen Arzt mittels eines Planungssystems, also virtuell mit Hilfe einer dafür geeigneten Software, durchgeführt und anschließend manuell auf das interventionelle Instrument, das robotergestützt ausgeführt sein kann, übertragen.
  • Der Interventionsplan kann dann an ein Navigationssystem, welches mit dem 3D Datensatz registriert ist, übermittelt werden. Das Navigationssystem kann die Ausrichtung des Instruments mittels verschiedener manueller oder automatischer Verfahren steuern oder unterstützen. Der Vorschub des Instruments kann dabei fluoroskopisch, d. h. in Echtzeit unter Röntgen-Durchleuchtung oder Ultraschall, überwacht werden. Alternativ kann der prä-interventionelle 3D Datensatz mit dem C-Bogen Datensatz koregistriert und die Informationen anschließend zur Navigation verwendet.
  • Probleme ergeben sich beispielsweise bei adipösen oder kräftigen Patienten. Aufgrund der technischen Realisierung des C-Bogen Röntgengeräts ist lediglich ein begrenztes Körpervolumen rekonstruierbar. Daher kann es beispielsweise vorkommen, dass die Körperoberfläche nicht im 3D Datensatz enthalten ist. Bei der virtuellen Planung erkennt in diesem Fall der Arzt nicht, wo der Einstichpunkt liegt und ob der geplante Zugangspfad möglicherweise aufgrund der Überlagerung von Knochen oder Rippen für die Intervention ungeeignet ist. Gegenwärtig erfolgen beispielsweise eine Feinnadelbiopsie oder eine Thermoablation eines Herdes in der Leber von perkutan meist unter CT-Kontrolle. Dabei verwendet der durchführende Arzt für seine Zugangsplanung eine Kombination aus dem CT-Schnittbild, von extern auf der Hautoberfläche des Patienten angebrachten Markern sowie der Orientierungshilfe durch ein an der CT-Gantry angebrachtes Laser-Fadenkreuz.
  • Die eigentlich Punktion sowie das Vorschieben des Instruments erfolgt bei diesem Vorgehen im Wesentlichen manuell durch den Arzt. Je nach Erfahrungsgrad ist dabei eine Mehrfachpunktion notwendig. Dieses Vorgehen birgt neben den Unannehmlichkeiten für den Patienten auch das erhöhte Risiko von Komplikationen, wie Blutungen, Organverletzungen oder Hämatomen. Zudem ist die Punktionsgenauigkeit bei diesem Vorgehen, insbesondere bei sehr kleinen Zielregionen, eingeschränkt.
  • Um eine gezieltere Instrumentenführung zu erreichen, können unterstützend verschiedene andere Navigationshilfen eingesetzt werden, zum Beispiel optische oder elektromagnetische Ortungssysteme oder die Verwendung eines stereotaktischen Rahmens, dessen Position im Raum bekannt ist und der eine Vorrichtung für eine Instrumentenführung aufweist. Dieses Vorgehen ist jedoch aufwändig. Außerdem kann das distale, patientenferne Ende des Instruments durch Ortungssysteme überwacht werden. Damit werden jedoch mögliche Verformungen des Instruments, z.B. einer Nadelspitze, die durch Widerstände im Körper verursacht werden und unter Umständen zu einer Abweichung vom Punktionspfad führen, nicht berücksichtigt.
  • Aus der Druckschrift DE 10 2007 045 075 A1 ist ein interventionelles Navigationssystem bekannt, welches einen mehrachsigen Roboterarm zur Führung eines daran befestigten Instruments aufweist. Der Roboterarm weist eine Nachgiebigkeitsregelung auf, durch die der Roboterarm externen, beispielsweise manuellen, Krafteinwirkungen kontrolliert nachgeben kann. Dadurch kann das Instrument vom Anwender manuell positioniert und gleichzeitig vom Navigationssystem automatisch in der gewünschten Orientierung und Position bzw. auf dem gewünschten Pfad gehalten werden. Dazu müssen 3D Daten des Patienten, der Roboterarm sowie das intraoperative Bildgebungsgerät gegenseitig registriert werden.
  • Der in DE 10 2007 045 075 A1 wiedergegebene Stand der Technik ermöglicht es beispielsweise, dass der Arzt bei einer Biopsie einen robotischen Nadelführer manuell vorpositioniert und der Roboter die finale Platzierung und Ausrichtung der Nadel übernimmt. Dazu wird eine Reihe von Methoden zur Positionserkennung erwähnt, die alle auf externen Ortungstechniken (optische, elektromagnetische Navigation) oder einer fixen mechanischen Registrierung basieren. Bei einer mechanischen Registrierung sollte der Roboter bezüglich des C-Bogen-Systems fix montiert sein.
  • Möchte man ein solches System im chirurgischen Umfeld anwenden, können jedoch einige Limitationen auftreten. Bei Prozeduren zur Fixation der Wirbelsäule zum Beispiel wird eine Vielzahl von Schrauben in verschiedene Wirbelkörper eingebracht. Bei einer fixen mechanischen Registrierung des Instrumentenhalters ist eine regelmäßige und aufwendige Kalibrierung notwendig, um eine exakte Positionierung beim Einbringen der Schrauben zu gewährleisten. Diese Kalibrierung ist störanfällig, da zufälliges, mechanisches Einwirken auf den Instrumentenhalter im OP nicht ausgeschlossen werden kann. Weil eine korrekte und genaue Kalibrierung für das präzise Einbringen der Schrauben notwendig ist, muss die Kalibrierung daher oft wiederholt werden. Dies ist zeitaufwendig und im operativen Umfeld nicht praktikabel.
  • Wird stattdessen eine zusätzliche externe Ortungstechnik (optische, elektromagnetische Navigation)eingesetzt, muss zunächst der Patient mit dem Operationsplan (z.B. geplante Schraubenposition) registriert werden. Danach müssen Patient und Instrumentenhalter mit der Ortungstechnik registriert werden. Die Mehrzahl der Registrierungsschritte ist aufwendig. Zudem möchte man auf zusätzliche Ortungssysteme gerne verzichten, da deren Hardware oft im Weg steht und zudem zusätzlich störungsanfällig ist.
  • Die Aufgabe der Erfindung besteht darin, ein interventionelles Bildgebungssystem und Verfahren anzugeben, das einen entsprechend einem Interventionsplan durchzuführenden Eingriff durch laufende Bildgebung, insbesondere Fluoroskopie, unterstützt und zu kontrollieren ermöglicht, bei dem gleichzeitig der Aufwand für Kalibrierung und Registrierung gering gehalten wird, und das ohne zusätzliches Ortungssystem auskommt.
  • Die Erfindung löst diese Aufgabe durch ein Bildgebungssystem und ein Verfahren mit den Merkmalen der unabhängigen Patentansprüche.
  • Ein Grundgedanke der Erfindung besteht in einem interventionellen Bildgebungssystem umfassend ein Bildgebungsgerät zur Aufnahme von Interventions-Daten eines Körpers, mindestens zwei mit dem Bildgebungsgerät aufnehmbare Positionsmarkierungen zur Markierung eines Interventions-Instruments, eine Anzeigevorrichtung zur Wiedergabe aufgenommener Interventions-Daten und Positionsmarkierungen, eine mit der Anzeigevorrichtung verbundene Navigationseinrichtung zum Laden von Prä-Interventions-Daten des Körpers, in denen ein Interventionsort des Körpers umfasst ist, und zum gegenseitigen Registrieren der Prä-Interventions-Daten mit den Interventions-Daten, wobei die Navigationseinrichtung dazu eingerichtet ist, die registrierten Prä-Interventions-Daten samt Interventionsort gemeinsam mit den Positionsmarkierungen auf der Anzeigevorrichtung wiederzugeben, wobei die Positionsmarkierungen derart ausgebildet sind und an einem länglichen Interventions-Instrument angeordnet werden können, dass sie Positionen, insbesondere koaxiale Positionen, entlang der Längsachse des Interventions-Instruments markieren, derart, dass dann, wenn auf der Anzeigevorrichtung die Positionsmarkierungen aufeinander und auf den Interventionsort ausgerichtet sind, auch die tatsächliche Längsachse des Interventions-Instruments auf den tatsächlichen Interventionsort ausgerichtet ist. Dadurch, dass nur die gut aufnehmbaren Positionsmarker laufend aufgenommen und auf der Anzeigevorrichtung wiedergeben werden, kann bei der Aufnahme Dosis gespart werden, bei Aufnahme mit einem Röntgen-Bildgebungssystem also Röntgendosis. Die relevante Orts-Information bezüglich des Zielortes bzw. Interventionsortes wird dabei aus den registrierten Prä-Interventions-Daten erhalten. Zusätzlich zu den Positionsmarkern können jedoch auch die Interventionsdaten laufend aufgenommen und auf der Anzeigevorrichtung wiedergeben werden.
  • Eine vorteilhafte Weiterbildung des Grundgedankens besteht darin, dass die Interventions-Daten 2D Daten sind.
  • Eine weitere vorteilhafte Weiterbildung des Grundgedankens besteht darin, dass die Prä-Interventions-Daten 3D Daten sind.
  • Eine weitere vorteilhafte Weiterbildung des Grundgedankens besteht darin, dass die Prä-Interventions-Daten auch noch während der Intervention, nur eben vor der jeweiligen aktuellen Teil-intervention aufgenommen wurden und 3D Daten (z.B. 3D DynaCT)sind.
  • Eine weitere vorteilhafte Weiterbildung des Grundgedankens besteht darin, dass das Bildgebungsgerät ein Röntgengerät ist.
  • Eine weitere vorteilhafte Weiterbildung des Grundgedankens besteht darin, dass das Bildgebungssystem ein C-Bogen-Röntgensystem ist, welches 3D Daten aufnehmen kann, wodurch vorteilhafter Weise eine intrinsische Registrierung zwischen den 2D und 3D Daten gegeben ist.
  • Eine weitere vorteilhafte Weiterbildung des Grundgedankens besteht darin, dass das Interventionsinstrument ein Instrument, Instrumentenhalter oder Instrumentenführung sein kann.
  • Ein weiterer Grundgedanke der Erfindung besteht in einem Verfahren zur interventionellen Bildgebung umfassend die Schritte
    • – Aufnahme von Interventions-Daten,
    • – Anordnen von mindestens zwei Positionsmarkierungen an einem länglichen Interventions-Instrument, wobei die Positionsmarkierungen derart ausgebildet sind und an dem Interventions-Instrument angeordnet werden, dass sie Positionen, insbesondere koaxiale Positionen, entlang der Längsachse des Interventions-Instruments markieren, derart, dass dann, wenn auf der Anzeigevorrichtung die Positionsmarkierungen aufeinander und auf den Interventionsort ausgerichtet sind, auch die tatsächliche Längsachse des Interventions-Instruments auf den tatsächlichen Interventionsort ausgerichtet ist,
    • – Aufnehmen der Positionsmarkierungen,
    • – Laden von Prä-Interventions-Daten, in denen ein Interventionsort des Körpers umfasst ist,
    • – gegenseitiges Registrieren der Interventions-Daten und Prä-Interventions-Daten,
    • – Wiedergeben der registrierten Prä-Interventions-Daten samt Interventionsort gemeinsam mit den Positionsmarkierungen auf einer Anzeigevorrichtung.
  • Dadurch, dass nur die gut aufnehmbaren Positionsmarker laufend aufgenommen und auf der Anzeigevorrichtung wiedergeben werden, kann bei der Aufnahme Dosis gespart werden, bei Aufnahme mit einem Röntgen-Bildgebungssystem also Röntgendosis. Die relevante Orts-Information bezüglich des Zielortes bzw. Interventionsortes wird dabei aus den registrierten Prä-Interventions-Daten erhalten. Zusätzlich zu den Positionsmarkern können jedoch auch die Interventionsdaten laufend aufgenommen und auf der Anzeigevorrichtung wiedergeben werden.
  • Eine vorteilhafte Weiterbildung besteht darin, dass die Interventions-Daten 2D Daten sind.
  • Eine weitere vorteilhafte Weiterbildung besteht darin, dass die Prä-Interventions-Daten 3D Daten sind.
  • Eine weitere vorteilhafte Weiterbildung besteht darin, dass das Bildgebungsgerät ein Röntgengerät ist.
  • Eine weitere vorteilhafte Weiterbildung des Grundgedankens besteht darin, dass
    • – anhand der Positionsmarkierungen eine aktuelle Position und Ausrichtung des Interventions-Instruments automatisch erkannt wird,
    • – anhand der Prä-Interventionsdaten und des Interventionsortes automatisch eine Abweichung der aktuellen Position und Ausrichtung von einer Zielposition und Zielausrichtung des Interventions-Instruments erkannt wird, und
    • – die Abweichung oder ein daraus gebildeter Bewegungsvorschlag zur Bewegung des Interventions-Instruments auf der Anzeigevorrichtung dargestellt wird.
  • Ein Grundgedanke der Erfindung besteht also nach den vorangehenden Erläuterungen in der Verwendung der laufenden, interventionellen Bildgebung (Fluoroskopie) zur finalen und genauen Positionierung der Instrumentenhalterung bzw. führung eines Interventions-Instruments gemäß einer vorgegebenen Planung. Als Bildgebungssystem kommt vorzugsweise ein Röntgensystem, z.B. ein C-Bogen-Röntgensystem zur Verwendung. Damit ist ein System und Verfahren beschrieben, welches eine einfache manuelle Vorpositionierung erlaubt, leicht zum, bzw. vom Patiententisch weg bewegt werden kann, ohne vorherige Kalibrierung, Registrierung oder Ortungssystem auskommt, und eine extrem hohe Flexibilität erreicht.
  • Dazu ist die Instrumentenführung mit mindestens einem, besser zwei aufnehmbaren, gegebenenfalls also röntgendichten, Markern als Positionsmarkierungen ausgestattet, die in ihrer Form und Lage zueinander bekannt sind. Diese Marker können vergleichbar einer Kimme/Korn-Zieleinrichtung gestaltet sein. In einem interventionellen Bild werden sie mit Mitteln der Bildverarbeitung und Bilderkennung erkannt und damit deren Position und Orientierung relativ zum interventionellen Bild dargestellt. Falls Position und Orientierung der Marker bzw. des Interventions-Instruments berechnet werden sollen, können als Berechnungsparameter beispielsweise deren Größe im interventionellen Bild, deren Verschiebung zueinander, und/oder deren Symmetrie/Verkippung verwendet werden. Im Ergebnis einer solchen Berechnung kann die aktuelle Position und Ausrichtung des Interventions-Instruments mit der Position und Ausrichtung am Interventionsort verglichen werden. Das Vergleichsergebnis wiederum kann dem Operateur angezeigt werden, oder es kann ein Bewegungsvorschlag für das Interventions-Instrument hin zum Interventionsort ermittelt und angezeigt werden, oder es kann ein solcher Bewegungsvorschlag an eine Steuerung zur automatischen Bewegung des Interventions-Instruments übermittelt werden.
  • Falls ein 2D-Bildsystem, wie in der Fluoroskopie üblich, eingesetzt wird, fehlt zunächst die Information über die Höhe der Führung bzw. des Interventions-Instruments bezüglich des Bildgebungssystems bzw. bezüglich des Interventionsorts. Das Fehlen dieser Information ist jedoch nicht von Bedeutung, wenn der Bilddetektor so ausgerichtet wird, dass die Detektornormale mit dem geplanten Interventions-Pfad übereinstimmt. Dann kann die Höhe bzw. der Abstand des Interventions-Instruments zum Patienten vom Operateur selbst überwacht und gegebenfalls auch von diesem manuell gesteuert werden.
  • Bei Bedarf kann die Höhe der Führung jedoch auch aus einem weiteren Fluoroskopie-Bild berechnet werden, wenn die Orientierung des Bildgebungssystems verändert wird. Dies kann erforderlich werden, wenn die Detektornormale nicht mit dem geplanten Interventions-Pfad übereinstimmt (z.B. falls der Detektor etwa aufgrund von Kollisionsproblemen diese Position nicht anfahren kann). Dann kann die Lage, Größe und die Form der Marker in dem Detektorbild aufgrund der Planung und der dazu registrierten Detektorposition berechnet werden und als Grundlage für die weitere Positionierung dienen.
  • Es ist keinerlei Registrierung notwendig, da nach einer initialen Bewegungen des Instrumentenhalters und damit der Marker aus der Positionsänderung im interventionellen Bild die relative Bewegung des Instrumentenhalters zur finalen, geplanten Ausrichtung des Instrumentenhalters berechnet werden kann. Daher kann die Halterung des Instruments, beispielsweise ein Roboter, zum Beispiel auf einem Rollwagen montiert werden und einfach bei Bedarf zum Patiententisch gefahren werden.
  • Ein Vorteil besteht demnach darin, dass keine enge Integration eines Robotors oder Interventions-Instrumentenhalters mit dem Bildgebungssystem, beispielsweise C-Bogen-Röntgensystem, notwendig ist. Nachdem der Bilddetektor entlang der geplanten Interventions-Trajektorie ausgerichtet worden ist, kann der Robotarm die gewünschte Position der Interventions-Instrumentenhalterung ausschließlich auf Basis der interventionellen Bilder, beispielsweise Fluoroskopie-Bilder, bestimmen. Das bedeutet, dass die Trajektorie, die im Bildsystem geplant worden ist, nicht selber auf das Interventions-Instrument-Halterungssystem übertragen zu werden braucht, sondern allein durch die interventionellen Bilder bestimmt wird.
  • Die Bildgebung selbst kann mit angepasster, niedriger Bildrate erfolgen. Da die Marker optimal aufnehmbar, im Falle eines Röntgensystems also röntgendicht, sind, kann zudem die Durchleuchtungs-Dosis pro Bild stark reduziert werden.
  • Die Bildübertragung/Übertragung der Interventions-Planung vom Bildgebungssystem bzw. der Navigationseinrichtung zur Interventions-Instrumentensteuerung, beispielsweise einer Robotersteuerung, kann auch kabellos erfolgen. Generell kann dieses Konzept auch auf eine komplett manuelle Positionierung übertragen werden. Dabei kann vorzugsweise eine mechanische, manuell steuerbare Halterung verwendet werden.
  • Weitere vorteilhafte Ausgestaltungen ergeben sich aus den abhängigen Patentansprüchen sowie aus der nachfolgenden Beschreibung von Ausführungsbeispielen anhand von Figuren. Die Figuren zeigen:
  • 1 Interventionelles Bildgebungssystem,
  • 2 Positionsmarkierungen nicht-fluchtend,
  • 3 Positionsmarkierungen fluchtend,
  • 4 Positionsmarkierungen mit Bewegungsvorschlag und
  • 5 Positionsmarkierungen vor und nach Initialbewegung
  • In 1 ist ein interventionelles Bildgebungssystem schematisch dargestellt. Es umfasst ein C-Bogen-Röntgensystem 3, eine Patientenlagerung 2 sowie ein zu Interventions-Zwecken ausgerüstetes Cart 9.
  • Das C-Bogen-Röntgensystem 3 umfasst einen an einem C-Bogen angeordneten Röntgenstrahler 4 sowie einen Bilddetektor 5. Es ist mit einer Navigationseinrichtung 6 verbunden, die der Unterstützung von Interventionen dient, welche unter Zuhilfenahme von interventionellen Bilddaten erfolgt, die durch das C-Bogen-Röntgensystem 3 gewonnen werden. Gemäß einer einfachen Ausführungsform werden Interventionsdaten in 2D durch das C-Bogen-Röntgensystem 3 gewonnen. In einer aufwendigeren Ausführungsform können jedoch auch 3D-Daten gewonnen werden, wozu die Detektor-Normale, die sich aus der Stellung des C-Bogens ergibt, rotiert werden muss.
  • Die Navigationseinrichtung 6 lädt zur Durchführung einer Intervention Prä-Interventions-Daten aus einem entsprechenden Datenspeicher 7. Die Prä-Interventions-Daten sind in der Regel 3D-Daten, welche vor einer Intervention zur Planung derselben an einem zu behandelnden Körper gewonnen werden. Die Prä-Interventions-Daten können mit unterschiedlichsten Bildgebungsverfahren gewonnen werden, zum Beispiel mit CT, MRT, PET. Sie können auch mit dem zur Intervention vorgesehenen C-Bogen-Röntgensystem 3 selbst gewonnen werden. Ebenso können fusionierte Datensätze verschiedener Modalitäten eingesetzt werden. Die Prä-Interventions-Daten umfassen eine Darstellung, mindestens eines Teilbereichs des zu behandelnden Körpers, der den eigentlichen Interventionsort enthält. Anhand der Prä-Interventions-Daten können Eingriffe am Interventionsort hinsichtlich dessen exakter Position sowie hinsichtlich des Zugangs geplant werden.
  • Die Navigationseinrichtung 6 registriert die vom Datenspeicher 7 geladenen Prä-Interventions-Daten mit den vom C-Bogen-Röntgensystem 3 erhaltenen interventionellen Daten, bei denen es sich beispielsweise um niederdosige Fluoroskopie-Daten handeln kann. Durch die Registrierung ist gewährleistet, dass ein in den Prä-Interventions-Daten enthaltener Interventionsort in den interventionellen Daten exakt verortet werden kann. Mithin kann durch die Registrierung der Interventionsort in den interventionellen Daten und somit im tatsächlichen Patientenkörper exakt lokalisiert werden, um eine Intervention exakt am Interventionsort im Patientenkörper durchführen zu können. Die registrierten interventionellen und präinterventionellen Daten werden durch die Navigationseinrichtung 6 auf einem Anzeigegerät 8, beispielsweise einem Flachbildschirm, wiedergegeben.
  • Auf einer Patientenlagerung 2 befindet sich der einer Intervention zu unterziehende Patientenkörper 1. Er wird durch das C-Bogen-Röntgensystem 3 durchleuchtet, interventionelle Daten zu gewinnen. Insbesondere wird der C-Bogen beziehungsweise der Patientenkörper 1 so ausgerichtet, der Interventionsort des Patientenkörpers in den interventionellen Daten enthalten ist. Folglich werden auf dem Anzeigegerät 8 zuvor gewonnenen Prä-Interventions-Daten gemeinsam mit in Echtzeit gewonnenen Interventions-Daten dargestellt.
  • Um den in den registrierten Bilddaten, die auf dem Anzeigegerät 8 dargestellt werden, enthaltenen Interventionsort am Patientenkörper 1 mit einem Interventions-Instrument 11 möglichst präzise anfahren und treffen zu können, wird das Interventions-Instrument 11 durch einen Roboterarm 10 geführt. Der Roboterarm 10 kann eine Nachgiebigkeitssteuerung umfassen, so dass das Interventions-Instrument 11 vom Operateur manuell geführt werden kann. Er kann auch ferngesteuert bedient werden, so dass ein Operateur durch Fernsteuerung des Roboterarms 10 das Interventions-Instrument 11 exakt steuert. Weiter ist eine automatisierte Ausführungsform vorstellbar, in der der Roboterarm 10 aufgrund der prä-interventionellen und interventionellen Bilddaten durch die Navigationseinrichtung 6 automatisch gesteuert wird.
  • Zur Übertragung von Planungs- und Bilddaten bzw. zur Übertragung von weiteren Befehlen kann eine Datenverbindung zwischen dem Cart 9 und der Navigationseinrichtung 6 verwendet werden. Alternativ können Daten auch vor der Intervention auf das Cart 9 übertragen werden. Eine Datenverbindung zwischen Cart 9 und Navigationseinrichtung 6 kann, wie in der 1 durch eine strichlierte Linie angedeutet, kabellos ausgeführt sein.
  • Das Interventions-Instrument 11 weist, um in den interventionellen Daten gut sichtbar zu sein, Positionsmarkierungen 12, 13 auf. Diese sind so beschaffen, dass sie mit dem interventionellen Bildgebungsgerät gut aufnehmbar sind. Falls das interventionelle Bildgebungsgerät als Röntgen-System ausgebildet ist, sind die Positionsmarkierungen 12, 13 also röntgensichtbar ausgeführt. Die Positionsmarkierungen 12, 13 werden im Folgenden näher erläutert.
  • In 2 ist eine Wiedergabe von interventionellen und präinterventionellen Daten, beispielsweise auf dem Anzeigegerät 8, schematisch dargestellt. Anhand der Prä-Interventions-Daten wird der Interventionsort 14 identifiziert und markiert. Die interventionellen Daten sind mit den prä-interventionellen Daten registriert, so dass der Interventionsort 14 also auch in den interventionellen Daten an der korrekten Position wiedergegeben ist. Der Bilddetektor ist zentral und direkt auf den Interventionsort 14 ausgerichtet.
  • Während das Interventions-Instrument selbst in den interventionellen Daten nicht erkennbar ist, sind die Positionsmarkierungen 12, 13 gut sichtbar. Die Positionsmarkierungen 12, 13 sind kreisrund gestaltet und längs des Interventions-Instruments koaxial zu dessen Längsachse angeordnet. Die Positionsmarkierung 12 befindet sich an der dem Interventionsort 14 zugewandten Seite des Interventions-Instruments, die Positionsmarkierung 13 an der gegenüberliegenden abgewandten Seite.
  • Die Längsachse des Interventions-Instruments ist demnach deutlich erkennbar, nicht exakt auf den Interventionsort 14 ausgerichtet. Eine durch die jeweiligen Mittelpunkte der Positionsmarkierungen 12, 13 verlaufende gedachte Linie entspricht der Längsachse des Interventions-Instruments und verläuft offensichtlich nicht durch den Interventionsort 14. Zudem ist aus der ovalen Verformung der Bildprojektion der tatsächlich kreisrunden Positionsmarkierungen 12, 13 erkennbar, dass das Interventions-Instrument nicht senkrecht zum Bilddetektor, das heißt in der Detektor-Normalen, ausgerichtet ist, sondern gekippt.
  • In 3 sind die vorangehend erläuterten Prä-Interventions-Daten und Interventions-Daten samt Positionsmarkierungen 12, 13 bei veränderter Positionierung des Interventions-Instruments schematisch dargestellt. Der Interventionsort 14 befindet sich weiter in der Mitte der Projektion. Wie zuvor ist der Bilddetektor zentral auf den Interventionsort 14 ausgerichtet. Die Positionsmarkierungen 12, 13 befinden sich ebenfalls in der Bildmitte. Sie fluchten, so dass sich die kreisrunden Markierungen gegenseitig überdecken. Damit ist offensichtlich die Längsachse des Interventions-Instruments ebenfalls exakt mittig und auf den Interventionsort 14 ausgerichtet angeordnet. Da sich das Interventions-Instrument solcherart in der Mitte des Bildes und somit auch automatisch senkrecht zum Bilddetektor befindet, sind somit die Projektionen der kreisrunden Positionsmarkierungen 12, 13 ebenfalls kreisrund.
  • Aus einer ovalen Deformation der jeweiligen Projektion der Projektionsmarkierungen 12, 13 lässt sich offensichtlich ermitteln, in welchem Winkel das Interventions-Instrument gegenüber der Bilddetektor-Normalen gekippt ist. Falls der tatsächliche Abstand der Positionsmarkierungen 12, 13 voneinander bekannt ist, lässt sich aus dem Abstand der oval deformierten Projektionen der Positionsmarkierungen 12, 13 bei gegenüber der Detektor-Normalen gekipptem Interventions-Instrument zusätzlich auf die räumliche Position des Interventions-Instruments schließen.
  • Eine Erhöhung der Genauigkeit einer solchen Positionsermittlung kann erreicht werden, wenn eine exakt bekannte, willkürliche Bewegung des Interventions-Instruments durchgeführt wird und anschließend zwei weitere Positionen und Deformationen der Positionsmarkierungen 12, 13 aufgenommen werden. In dieser Art lassen sich mit Hilfe der Positionsmarkierungen 12, 13 bei bekannter Geometrie und Anordnung am Interventions-Instrument, sowie gegebenenfalls bekanntem Abstand der Positionsmarkierungen 12, 13 zueinander, sowie gegebenenfalls bekannter Variation von Ort und Ausrichtung des Interventions-Instruments zwischen zwei Aufnahmen unterschiedlich exakte Positionsdaten des Interventions-Instruments ermitteln.
  • In 4 sind erneut interventionelle und prä-interventionelle Daten samt Interventionsort 14 und einer jeweiligen Projektion der Positionsmarkierungen 12, 13 dargestellt. Der Interventionsort 14 ist wie zuvor mittig angeordnet und der Bilddetektor exakt darauf ausgerichtet. Die Positionsmarkierungen 12, 13 sind wie zuvor nicht mittig angeordnet und ihre Projektion ist oval deformiert. Das Interventions-Instrument ist demnach gegenüber der Detektor-Normalen gekippt und zudem nicht auf den Interventionsort 14 ausgerichtet. Durch Pfeile a und b sind Verschiebungsvektoren angedeutet, die eine genauere Ausrichtung des Interventions-Instruments auf den Interventionsort 14 bewirken sollen. Durch manuelle oder automatische Steuerung des Interventions-Instruments gemäß den Verschiebungsvektoren a, b könnte der Interventionsort 14 also nach und nach mit dem Interventions-Instrument angefahren werden.
  • In 5 sind wie vorangehend der Interventionsort 14 sowie die Positionsmarkierungen 12, 13 dargestellt. Die Positionsmarkierungen 12, 13 sind gegenüber der vorangehenden Aufnahme an anderer Position angeordnet. Dies rührt von einer gegenüber der vorangehenden Position durchgeführten willkürlichen, vorbekannten Positionsänderung des Interventionsinstruments her. Bei vorbekannter willkürlicher Positionsänderung sowie bekanntem Abstand der Positionsmarkierungen 12, 13 am Interventions-Instrument voneinander lassen sich aus den Positionsdaten der Positionsmarkierungen 12, 13 vor und nach der willkürlichen Bewegung verhältnismäßig genaue Positionsdaten des Interventionsinstruments gewinnen. Hierzu zählt insbesondere die in den 2D-Daten nicht enthaltene z-Achse, das heißt, der Abstand des Interventions-Instruments vom Interventionsort 14 oder vom Bilddetektor.
  • Mit Hilfe der gewonnenen Daten des Interventions-Instruments sowie der aus den interventionellen und prä-interventionellen Daten ersichtlichen Momentanposition lässt sich ein Bewegungsvorschlag für das Interventions-Instrument ermitteln, durch den dieses exakter auf den Interventionsort 14 ausgerichtet werden kann. Insbesondere durch Berücksichtigung eventueller Informationen über die Position des Interventionsinstruments auf der Z-Achse, das heißt, dem Abstand vom Interventionsort 14, kann dabei aber auch der erforderliche Abstand zum Interventionsort 14 beziehungsweise Patientenkörper eingehalten werden.
  • Die beschriebenen Ausführungsbeispiele ermöglichen für die Positionierung beispielsweise einer Schraube bei vorhandener prä-interventioneller Planung am Beispiel einer Bohrhülse folgenden exemplarischen Arbeitsablauf A:
    • 1. Manuelle Positionierung des Roboters mit der Bohrhülse nahe dem Patiententisch
    • 2. Manuelle Grobpositionierung der Bohrhülse
    • 3. Positionierung des C-Bogen-Röntgensystems so, dass die Detektornormale auf den Interventionsort zeigt, oder alternative Berechnung der Zielposition, Größe und Form der Marker auf dem Durchleuchtungsbild
    • 4. Start der automatischen Positionierung durch den Roboter
    • 5. Registrierung mit der Planung a. Durchleuchtungsaufnahme und Bilderkennung der Marker im interventionellen Durchleuchtungsbild b. Berechnung der relativen Position (x, y, z*) und initialer Bewegungsvorschlag (delta_x, delta_y) c. Bewegung der Bohrhülse d. Durchleuchtungsaufnahme und Bilderkennung der Marker im interventionellen Durchleuchtungsbild e. Berechnung der relativen Positionsänderung (dx, dy, dz), initiale Registrierung
    • 6. Positionierung/ Ausrichtung der Hülse a. Berechnung eines neuen Bewegungsvorschlages (dx, dy) b. Bewegung der Bohrhülse c. Durchleuchtungsaufnahme und Bilderkennung der Marker im Durchleuchtungsbild d. Wiederholen Schritt 6a. bis 6d. bis finale Position/Ausrichtung erreicht ist
    • 7. Optional: Positionierung der Hülse im geplanten Abstand vom Objekt
  • Zu Punkt 7) Die Positionierung der Bohrhülse in z Richtung zum Objekt ist kritisch, da ein Verletzen des Patienten mit der Hülse vermieden werden muss. Deshalb wird (z.B. aus der Vergrößerung der Marker in Punkt 5b) ein initialer Abstand vom Detektor und, falls eine Interventions-Planung und 2D/3D Registrierung vorhanden ist, ein initialer Abstand vom Patienten ermittelt. Diese Abstandsmessung wird im Laufe der Positionierung mit vielen Daten ständig verbessert.
  • Eine alternative Lösung besteht darin, nur die x,y Positionierung und Ausrichtung automatisch durchzuführen. Ist die erfolgt, nähert der Arzt die Hülse mit dem nachgiebigkeitsgeregelten Roboterarm dem Objekt, wobei der Roboter nur eine Bewegung längs der Detektornormalen zulässt.
  • Es ist auch eine Kombination aus beiden Ansätzen denkbar. Der Arzt führt den Roboter bzw. das Interventions-Instrument solange manuell, bis er ein Signal zum Stopp erhält.
  • Für die Realisierung des Gesamtsystems sind verschiedene Varianten vorstellbar:
    • 1. Der Roboterarm ist voll mit dem C-Bogen System integriert und wird auch von diesem über eine entsprechende Einheit angesteuert.
    • 2. Der Roboterarm hat seine eigene Steuereinheit (Bilderkennung, Bildverarbeitung und Bewegungsplanung und steuerung) und bekommt vom C-Bogen System die präinterventionellen Planungsdaten und interventionellen Durchleuchtungsbilder.
    • 3. Die Steuerung des Roboterarms enthält die komplette Interventions-Planung, Erkennung und Steuerung.
    • 4. Beide Systeme sind vollkommen getrennt. Die Planung findet am C-Bogen-System statt. Der C-Bogen richtet sich nach der Planung aus (Detektornormale entspricht dem geplanten Pfad). Die Steuerung des Roboterarms bekommt lediglich die interventionellen Durchleuchtungsdaten. Mit dem Wissen über die Ausrichtung des C-Bogens kann Navigiert werden, ohne dass 3D Daten oder Planungsdaten übergeben werden müssen
  • Insgesamt stellt sich der Arbeitsablauf wie folgt dar:
    • 1. Erstellung eines prä-interventionellen 3D Datensatzes eines Patienten mit einem medizinischen Bildgebungsgerät (ausgelöst durch den Arzt)
    • 2. Bestimmung einer zu therapierenden Zielregion/Interventionsort des Patienten anhand des 3D Datensatzes (manuell durch den Arzt)
    • 3. Planung der Intevention, z.B. Bohrungen in einem Wirbel des Patienten, (auch manuell durch den Arzt, eventuell unterstützt durch ein Therapieplanungssystem)
    • 4. Übergabe der Planung an den Roboter mit dem Interventions-Instrument
    • 5. Positionierung des Interventions-Instruments, z.B. einer Bohrhülse, nach Workflow oben A)
    • 6. Manueller Vorschub des Interventions-Instrumentes/Bohrers durch den Operateur, – optionale Kontrolle während des Vorschubs des Instrumentes (z. B. mittels durch Fluoroskopie oder ein anderes bildgebendes Verfahren erstellte interventionelle Abbildungen)
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007045075 A1 [0010, 0011]

Claims (12)

  1. Interventionelles Bildgebungssystem umfassend ein Bildgebungsgerät zur Aufnahme von Interventions-Daten eines Körpers, mindestens zwei mit dem Bildgebungsgerät aufnehmbare Positionsmarkierungen zur Markierung eines Interventions-Instruments, eine Anzeigevorrichtung zur Wiedergabe aufgenommener Interventions-Daten und Positionsmarkierungen, eine mit der Anzeigevorrichtung verbundene Navigationseinrichtung zum Laden von Prä-Interventions-Daten des Körpers, in denen ein Interventionsort des Körpers umfasst ist, und zum gegenseitigen Registrieren der Prä-Interventions-Daten mit den Interventions-Daten, wobei die Navigationseinrichtung dazu eingerichtet ist, die registrierten Prä-Interventions-Daten samt Interventionsort gemeinsam mit den Positionsmarkierungen auf der Anzeigevorrichtung wiederzugeben, dadurch gekennzeichnet, dass die Positionsmarkierungen derart ausgebildet sind und an einem länglichen Interventions-Instrument angeordnet werden können, dass sie Positionen, insbesondere koaxiale Positionen, entlang der Längsachse des Interventions-Instruments markieren, derart, dass dann, wenn auf der Anzeigevorrichtung die Positionsmarkierungen aufeinander und auf den Interventionsort ausgerichtet sind, auch die tatsächliche Längsachse des Interventions-Instruments auf den tatsächlichen Interventionsort ausgerichtet ist.
  2. Bildgebungssystem nach Anspruch 1, wobei die Navigationseinrichtung dazu eingerichtet ist, zusätzlich zu den den Prä-Interventions-Daten samt Interventionsort und den Positionsmarkierungen auch die Interventions-Daten auf der Anzeigevorrichtung wiederzugeben.
  3. Bildgebungssystem nach einem der vorhergehenden Ansprüche, wobei die Interventions-Daten 2D Daten sind.
  4. Bildgebungssystem nach einem der vorhergehenden Ansprüche, wobei die Prä-Interventions-Daten 3D Daten sind.
  5. Bildgebungssystem nach einem der vorhergehenden Ansprüche, wobei das Bildgebungsgerät ein Röntgengerät ist.
  6. Bildgebungssystem nach einem der vorhergehenden Ansprüche, wobei das Interventionsinstrument ein Instrument, Instrumentenhalter oder Instrumentenführung ist.
  7. Verfahren zur interventionellen Bildgebung umfassend die Schritte – Aufnahme von Interventions-Daten, – Anordnen von mindestens zwei Positionsmarkierungen an einem länglichen Interventions-Instrument, wobei die Positionsmarkierungen derart ausgebildet sind und an dem Interventions-Instrument angeordnet werden, dass sie Positionen, insbesondere koaxiale Positionen, entlang der Längsachse des Interventions-Instruments markieren, derart, dass dann, wenn auf der Anzeigevorrichtung die Positionsmarkierungen aufeinander und auf den Interventionsort ausgerichtet sind, auch die tatsächliche Längsachse des Interventions-Instruments auf den tatsächlichen Interventionsort ausgerichtet ist, – Aufnehmen der Positionsmarkierungen, – Laden von Prä-Interventions-Daten, in denen ein Interventionsort des Körpers umfasst ist, – gegenseitiges Registrieren der Interventions-Daten und Prä-Interventions-Daten, – Wiedergeben der registrierten Prä-Interventions-Daten samt Interventionsort gemeinsam mit den Positionsmarkierungen auf einer Anzeigevorrichtung.
  8. Verfahren nach Anspruch 7, wobei zusätzlich zu den Positionsmarkierungen die Interventions-Daten aufgenommen und gemeinsam mit den Positionsmarkierungen und den Prä-Interventions-Daten auf der Anzeigevorrichtung wiedergegeben werden.
  9. Verfahren nach Anspruch 7 oder 8, wobei die Interventions-Daten 2D Daten sind.
  10. Verfahren nach einem der Ansprüche 7 bis 9, wobei die Prä-Interventions-Daten 3D Daten sind.
  11. Verfahren nach einem der Ansprüche 7 bis 10, wobei das Bildgebungsgerät ein Röntgengerät ist.
  12. Verfahren nach einem der Ansprüche 7 bis 11, wobei – anhand der Positionsmarkierungen eine aktuelle Position und Ausrichtung des Interventions-Instruments automatisch erkannt wird, – anhand der Prä-Interventionsdaten und des Interventionsortes automatisch eine Abweichung der aktuellen Position und Ausrichtung von einer Zielposition und Zielausrichtung des Interventions-Instruments erkannt wird, und – die Abweichung oder ein daraus gebildeter Bewegungsvorschlag zur Bewegung des Interventions-Instruments auf der Anzeigevorrichtung dargestellt wird.
DE102013213727.3A 2013-07-12 2013-07-12 Interventionelles Bildgebungssystem Pending DE102013213727A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102013213727.3A DE102013213727A1 (de) 2013-07-12 2013-07-12 Interventionelles Bildgebungssystem
US14/013,152 US9888889B2 (en) 2013-07-12 2013-08-29 Interventional imaging system
CN201310383214.7A CN104274194B (zh) 2013-07-12 2013-08-29 介入式成像系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013213727.3A DE102013213727A1 (de) 2013-07-12 2013-07-12 Interventionelles Bildgebungssystem

Publications (1)

Publication Number Publication Date
DE102013213727A1 true DE102013213727A1 (de) 2015-01-15

Family

ID=52107353

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013213727.3A Pending DE102013213727A1 (de) 2013-07-12 2013-07-12 Interventionelles Bildgebungssystem

Country Status (3)

Country Link
US (1) US9888889B2 (de)
CN (1) CN104274194B (de)
DE (1) DE102013213727A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108030551A (zh) * 2017-12-06 2018-05-15 上海波城医疗科技有限公司 手术机械臂行程校正系统及方法
CN108175510A (zh) * 2018-01-19 2018-06-19 上海联影医疗科技有限公司 医疗机器人以及医疗系统

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3355822A1 (de) * 2015-09-28 2018-08-08 Koninklijke Philips N.V. Optische registrierung eines entfernten zentrums eines bewegungsroboters
EP3389540B1 (de) * 2015-12-17 2024-02-28 Koninklijke Philips N.V. Navigationshilfesystem
CN105963018A (zh) * 2016-04-27 2016-09-28 何滨 智能脊椎麻醉穿刺机器人系统
CN106446578B (zh) * 2016-10-13 2019-05-17 北京东方惠尔图像技术有限公司 用于植入手术的图像显示方法、装置和系统
WO2019109211A1 (en) * 2017-12-04 2019-06-13 Covidien Lp Automatic ablation antenna segmentation from ct image
TWI641358B (zh) * 2017-12-26 2018-11-21 國立成功大學 脊椎經皮穿刺導引系統與穿刺方位規劃方法
CN108294825B (zh) * 2017-12-26 2019-08-02 刘洋 用于手术导航的配准系统及方法
CN108013934B (zh) * 2018-01-19 2020-02-11 上海联影医疗科技有限公司 用于介入对象的腔内介入系统
CN110215284B (zh) * 2019-06-06 2021-04-02 上海木木聚枞机器人科技有限公司 一种可视化系统和方法
CN110393545A (zh) * 2019-08-01 2019-11-01 上海市肺科医院 一种适用于ct增强检查的ai智能监测系统
CN111728695B (zh) * 2020-06-12 2023-07-25 天津理工大学 一种用于开颅手术的光束辅助定位系统
JP2022101850A (ja) * 2020-12-25 2022-07-07 川崎重工業株式会社 手術支援ロボット、手術支援システムおよび手術支援ロボットの制御方法
CN113855244B (zh) * 2021-09-08 2022-10-18 江苏集奥医工交叉科技有限公司 一种用于疼痛治疗的手术机器人
CN114366356B (zh) * 2022-01-17 2023-03-14 北京理工大学 自主式种植牙机器人定位精度评估装置和方法
CN116965930B (zh) * 2023-09-22 2023-12-22 北京智愈医疗科技有限公司 一种基于超声图像的手术器械位移监测装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007045075A1 (de) 2007-09-21 2009-04-09 Siemens Ag Interventionelles medizinisches Diagnose- und/oder Therapiesystem
WO2010092512A1 (en) * 2009-02-12 2010-08-19 Koninklijke Philips Electronics N.V. System for determining the orientation of a catheter
US20110060214A1 (en) * 2004-04-21 2011-03-10 Acclarent, Inc. Systems and Methods for Performing Image Guided Procedures Within the Ear, Nose, Throat and Paranasal Sinuses

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6036696A (en) * 1997-12-19 2000-03-14 Stryker Technologies Corporation Guide-pin placement device and method of use
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
JP2015528713A (ja) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110060214A1 (en) * 2004-04-21 2011-03-10 Acclarent, Inc. Systems and Methods for Performing Image Guided Procedures Within the Ear, Nose, Throat and Paranasal Sinuses
DE102007045075A1 (de) 2007-09-21 2009-04-09 Siemens Ag Interventionelles medizinisches Diagnose- und/oder Therapiesystem
WO2010092512A1 (en) * 2009-02-12 2010-08-19 Koninklijke Philips Electronics N.V. System for determining the orientation of a catheter

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108030551A (zh) * 2017-12-06 2018-05-15 上海波城医疗科技有限公司 手术机械臂行程校正系统及方法
CN108175510A (zh) * 2018-01-19 2018-06-19 上海联影医疗科技有限公司 医疗机器人以及医疗系统

Also Published As

Publication number Publication date
US9888889B2 (en) 2018-02-13
CN104274194B (zh) 2018-02-09
CN104274194A (zh) 2015-01-14
US20150018670A1 (en) 2015-01-15

Similar Documents

Publication Publication Date Title
DE102013213727A1 (de) Interventionelles Bildgebungssystem
DE102007045075B4 (de) Interventionelles medizinisches Diagnose- und/oder Therapiesystem
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
EP1127545B1 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
DE102008022924A1 (de) Vorrichtung und Verfahren für einen medizinischen Eingriff
DE102006006038B4 (de) System zur bildlich dargestellten Verfolgung eines in ein Untersuchungsobjekt mindestens teilweise eingeführten, bewegten medizinischen Instruments
EP3412242A1 (de) Ausgabe von positionsinformationen eines medizintechnischen instruments
WO2007031314A2 (de) Positionierungssystem für perkutane interventionen
DE102005059804A1 (de) Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
DE102007030137A1 (de) Führung für chirurgische Werkzeuge
DE102010020284A1 (de) Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
WO2011144412A1 (de) Bestimmung und überprüfung der koordinatentransformation zwischen einem röntgensystem und einem operationsnavigationssystem
DE10210287A1 (de) Verfahren und Vorrichtung zur markerlosen Registrierung für navigationsgeführte Eingriffe
DE102011006574B4 (de) Verfahren und System zur Unterstützung des Arbeitsablaufs in einer Operationsumgebung
WO2019149400A1 (de) Verfahren zur positionsplanung eines aufnahmesystems eines medizinischen bildgebenden geräts und medizinisches bildgebendes gerät
DE19951503B4 (de) Medizinisches System mit einem Bildgebungs- und einem Navigationssystem
DE102008013611A1 (de) Vorrichtung und Verfahren für einen medizinischen Eingriff
DE102008032508B4 (de) Medizinische Untersuchungs- und Behandlungseinrichtung zur Planung und Durchführung einer Punktion eines Patienten sowie zugehöriges Verfahren
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
WO2008074831A2 (de) Vorrichtung zur durchführung minimalinvasiver diagnosen und ggf. zusätzlicher therapeutischer eingriffe im inneren des körpers eines patienten
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102008032313B3 (de) Medizintechnische Vorrichtung
DE102005012985A1 (de) Verfahren zur Kontrolle der Führung eines Instrumentes bei einem Eingriff in ein Objekt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE