DE102005036322A1 - Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion - Google Patents

Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion Download PDF

Info

Publication number
DE102005036322A1
DE102005036322A1 DE102005036322A DE102005036322A DE102005036322A1 DE 102005036322 A1 DE102005036322 A1 DE 102005036322A1 DE 102005036322 A DE102005036322 A DE 102005036322A DE 102005036322 A DE102005036322 A DE 102005036322A DE 102005036322 A1 DE102005036322 A1 DE 102005036322A1
Authority
DE
Germany
Prior art keywords
intraoperative
image data
preoperative
data set
imaging modality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005036322A
Other languages
English (en)
Inventor
Jan Dr. Boese
Martin Dr. Kleen
Klaus Dr. Klingenbeck-Regn
Norbert Rahn
Marcus Dr. Pfister
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005036322A priority Critical patent/DE102005036322A1/de
Priority to US11/496,069 priority patent/US7664542B2/en
Publication of DE102005036322A1 publication Critical patent/DE102005036322A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Nuclear Medicine (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur intraoperativen Registrierung intraoperativer Bilddatensätze mit präoperativen 3-D-Bilddatensätzen, DOLLAR A aufweisend die folgenden Schritte: DOLLAR A S1: räumliches Kalibrieren eines optischen 3-D-Sensor-Systems mit einer intraoperativen Bildgebungsmodalität, DOLLAR A S2: intraopertives Erfassen der Oberfläche eines interessierenden Untersuchungsgebietes mit dem 3-D-Sensor-System, wodurch eine intraoperative Oberflächenmaske erhalten wird, DOLLAR A S3: intraoperatives Aufnehmen des die intraoperative Oberflächenmaske zumindest zum Teil enthaltenden interessierenden Untersuchungsgebietes mit der intraoperativen Bildgebungsmodalität, wodurch ein intraoperativer Bilddatensatz erhalten wird, DOLLAR A S4: Berechnen der im Wesentlichen gleichen Oberfläche aus einem die erfasste bzw. aufgenommene Oberfläche enthaltenden präoperativ gewonnenen 3-D-Bilddatensatz, wodurch eine präoperative Oberflächenmaske erhalten wird, DOLLAR A S5: Registrieren der intraoperativen und präoperativen Oberflächemaske zueinander, DOLLAR A S6: Ermitteln einer Abbildungsvorschrift zwischen präoperativem 3-D-Bilddatensatz und intraoperativem Bilddatensatz auf Basis der Kalibrierung und der Registrierung und DOLLAR A S7: überlagertes Visualisieren des intraoperativen Bilddatensatzes mit dem präoperativen 3-D-Datensatz auf Basis der Abbildungsvorschrift.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur intraoperativen Registrierung intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen. Dabei bezieht sich die vorliegende Erfindung insbesondere auf ein Verfahren, welches auf schneller optischer Oberflächenerkennung basiert.
  • In der medizinischen Bildgebung stellt sich (häufig) das Problem, eine schnelle aber dennoch exakte Registrierung intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen vornehmen zu müssen, und zwar aus verschiedenen Gründen:
    • 1. Intraoperative Bilddatensätze, die als so genannte Echtzeitbilder während einer Intervention üblicherweise mit Hilfe fluoroskopischer Durchleuchtung gewonnen werden, dienen in erster Linie zur Navigation von chirurgischen Instrumenten (z.B. in Kopf oder Herz). Derartige fluoroskopische 2D-Bilder (beispielsweise aufgenommen mit einem C-Bogen) sind schnell verfügbar, die Aufnahmetechnik minimiert die Strahlenbelastung für Patient und Arzt. Interventionelle Vorrichtungen (Operationsinstrumente, Katheter, Führungsdrähte usw.) werden hochaufgelöst in Quasi-Echtzeit abgebildet. Allerdings zeigen solche Durchleuchtungsbilder – verglichen mit Bildern von 3D-Bildgebungsmodalitäten (z.B. CT, MRT, 3D-Angio) – keine räumlichen Details. Im Stand der Technik wird die räumliche Information dadurch zurückgewonnen, dass präoperativ aufgenommene 3D-Bilder (beispielsweise aus einer CT-, 3D-Angio- oder MR-Tomographie) mit den zweidimensionalen intraoperativen Durchleuchtungsbildern registriert und diesen unterlegt werden, was auch als Co-Registrierung bezeichnet wird. Bei einer solchen Registrierung muss bestimmt werden, aus welcher Richtung ein 3D-Volumen projiziert werden muss, damit es mit dem intraoperativen 2D-Bild zur Deckung gebracht werden kann.
    • 2. Intraoperative Bilddatensätze können auch funktionelle nuklearmedizinische 3D-Bilddaten sein (z.B. PET- oder SPECT-Bilder), die eine Beschreibung Stoffwechselbasierter (metabolischer) Funktionen bzw. Prozesse des Körpers liefern. Solche Bilddaten werden unter anderem dazu verwendet, anatomische Regionen, die abnormen Stoffwechsel (Metabolismus) aufweisen, wie z.B. Tumore, zu visualisieren und deren Größe und Aktivität zu bestimmen. Allerdings geben diese funktionellen 3D-Bilder wenig Aufschluss über die Patientenanatomie, in der die pathogene Region (z.B. der Tumor) eingebettet ist, was bei ausschließlicher Verwendung solcher funktionalen (funktionellen) Bilddaten hinsichtlich Diagnostik, Therapieplanung und Therapie problematisch ist, zumal auch die räumliche Auflösung dieser Bilddaten stark begrenzt ist. So ist es schwierig, einen Tumor unter alleiniger Verwendung von nuklearmedizinischen 3D-Bilddaten (SPECT, PET) exakt zu lokalisieren, da in diesen die exakte räumliche Relation zur Patienten-Anatomie fehlt. Allerdings kann diese räumliche Relation auch wieder durch Registrierung (und Fusion) der funktionellen 3D-Bilddaten mit hochaufgelösten morphologischen 3D-Bilddaten hergestellt werden.
  • Das Problem aus medizinisch technischer Sicht – bei 2D-Durchleuchtungsbildern genauso wie bei funktionalen 3D-Bildern – besteht in der Registrierung mit den hochaufgelösten morphologischen 3D-Bildern. Hierfür gibt es nach dem Stand der Technik verschiedene Ansätze, die beispielsweise auf Benutzerinteraktion (Setzen von Landmarken in beiden Bildern) oder etwa dem Minimieren von Intensitätsunterschieden beruhen.
  • Insbesondere das Problem der Registrierung von funktionalen 3D-Bilddaten mit morphologischen 3D-Bilddaten wird derzeit auf verschiedene Weise gelöst:
    • A) Die so genannte "Multi-Modality-3D-3D-Registrierung" kombiniert komplementäre Information, die von verschiedenen Bildgebungsmodalitäten generiert wurde. So kann beispielswei se anatomische Information von CT-, MR-, C-Bogen-Rotations-Angiographie- oder 3D-Ultraschall-Bilddaten mit funktionaler Information von fMRI-, PET-, SPECT-Bilddaten oder von funktionellen Mapping-Modalitäten, wie EEG oder MEG, kombiniert werden.
    • B) Funktionelle und morphologische Bilddaten können (ebenfalls) mit Hilfe Landmarken-basierter (feature-basierter) oder Bildbasierter Registrierungsalgorithmen fusioniert werden, wobei dabei eine Software-Implementierung von speziellen Algorithmen zugrunde gelegt wird. Eine solche Software-basierte Registrierung arbeitet nur dann zuverlässig, wenn bezüglich funktioneller und morphologischer Bilddaten genügend gemeinsame Bildinformation vorhanden ist, was nicht immer der Fall ist. Zwar ist die Performanz dieser Software-Registrierung für diagnostische Anwendungen in der Regel befriedigend, eine Steigerung wäre jedoch wünschenswert. Es sei auch erwähnt, dass die Genauigkeit des individuellen Registrierungsergebnisses im Einzelfall nicht quantitativ erfasst, sondern meist nur visuell beurteilt werden kann, da das tatsächlich gewünschte Ergebnis a priori unbekannt ist.
    • C) Um die Problematik des Lösungsansatzes B) zu entschärfen und um Verbesserungen bezüglich des bildgebenden klinischen Arbeitsablaufes (engl. Workflow) zu erreichen, sind mittlerweile Kombinationen von anatomischen Bildgebungsmodalitäten und funktionellen Bildgebungsmodalitäten kommerziell verfügbar: z.B. das "CT-PET Biograph-System" oder das "CT-SPECT Symbia-System" von Siemens.
  • Generell vereinfacht sich die Aufgabenstellung der Registrierung bzw. der überlagerten Darstellung (Fusion) von anatomischen und funktionellen 3D-Bilddaten durch eine solche Modalitäten-Kombination erheblich. Allerdings sind die Anschaf fungskosten für eine Modalitäten-Kombination extrem hoch und zudem ist es derzeit nicht möglich, ausgefallenere aber dennoch sinnvolle und gewünschte Kombinationen (z.B. PET + MRT, SPECT + MRT, Ultraschall-Doppler + MRT, MEG + MRT usw.) zu erwerben.
  • Nachteil der bestehenden Verfahren ist einerseits eine gewisse nicht zu tolerierende Ungenauigkeit und andererseits der mitunter hohe Zeitbedarf dieser Verfahren. Es ist nämlich wünschenswert, dass diese Verfahren möglichst exakt und schnell auf eventuelle Patientenbewegungen reagieren können. Exakte und schnelle Registrierung, insbesondere von funktionellen mit morphologischen 3D-Bilddaten, stellt sich aber in der Praxis als ausgesprochen schwierig dar, weil nur eine geringe Anzahl von Gemeinsamkeiten dieser beiden komplementären Bilddaten-Kategorien existiert.
  • Aufgabe der vorliegenden Erfindung ist es, die Registrierung intraoperativer fluoroskopischer oder funktioneller Bilddaten mit präoperativen morphologischen 3D-Bilddaten weiter zu verbessern.
  • Diese Aufgabe wird gemäß der vorliegenden Erfindung durch die Merkmale der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken der Erfindung in besonders vorteilhafter Weise weiter.
  • Erfindungsgemäß wird ein Verfahren beansprucht, zur intraoperativen Registrierung intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen, aufweisend die folgenden Schritte:
    • S1: räumliches Kalibrieren eines optischen 3D-Sensor-Systems mit einer intraoperativen Bildgebungsmodalität,
    • S2: intraoperatives Erfassen der Oberfläche eines interessierenden Untersuchungsgebietes mit dem 3D-Sensor-System, wodurch eine intraoperative Oberflächenmaske erhalten wird,
    • S3: intraoperatives Aufnehmen des die intraoperative Oberflächenmaske zumindest zum Teil enthaltenden interessierenden Untersuchungsgebietes mit der intraoperativen Bildgebungsmodalität, wodurch ein intraoperativer Bilddatensatz erhalten wird,
    • S4: Berechnen der im Wesentlichen gleichen Oberfläche aus einem die erfasste bzw. aufgenommene Oberfläche enthaltenden präoperativ gewonnenen 3D-Bilddatensatz, wodurch eine präoperative Oberflächenmaske erhalten wird,
    • S5: Registrieren der intraoperativen und präoperativen Oberflächenmaske zueinander,
    • S6: Ermitteln einer Abbildungsvorschrift zwischen präoperativem 3D-Bilddatensatz und intraoperativem Bilddatensatz auf Basis der Kalibrierung und der Registrierung und
    • S7: überlagertes Visualisieren des intraoperativen Bilddatensatzes mit dem präoperativen 3D-Datensatz auf Basis der Abbildungsvorschrift.
  • Dabei ist in einer mögliche erfindungsgemäßen Ausgestaltung der intraoperative Bilddatensatz ein 2D-Fluorobild eines Röntgen-C-Bogens und die intraoperative Bildgebungsmodalität ein fMRT-Gerät, ein PET-Gerät, ein SPECT-Gerät oder eine funktionale Mapping-Modalität wie ein EEG oder ein MEG.
  • In einer weiteren möglichen Ausgestaltung der Erfindung entstammt der präoperative 3D-Bilddatensatz einer morphologischen Bildgebungsmodalität in Form eines MRT-Gerätes, eines CT-Gerätes, eines C-Bogen-Rotationsangiographie-Gerätes oder eines 3D-Ultraschall-Gerätes.
  • Weiterhin kann das intraoperative Erfassen vorteilhafterweise kurz vor einem intraoperativen Aufnehmen oder periodisch während der Intervention erfolgen.
  • Insbesondere bei periodischem Erfassen kann erfindungsgemäß auf Basis der Messergebnisse des optischen 3D-Sensor-Systems ein Bewegungsfeld des Untersuchungsgebietes berechnet werden, welches dazu verwendet wird, Bewegungsartefakte in intraope rativen Aufnahmen zu reduzieren bzw. deren Auflösung zu verbessern.
  • Ferner wird eine Vorrichtung beansprucht die zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche geeignet ist.
  • Weitere Vorteile, Merkmale und Eigenschaften werden nun anhand von Ausführungsbeispielen bezugnehmend auf die begleitenden Zeichnungen näher erläutert.
  • 1 zeigt schematisch ein Flussdiagramm des erfindungsgemäßen Verfahrens,
  • 2 zeigt ein Prinzipschema des erfindungsgemäßen Verfahrens,
  • 3 zeigt mögliche Oberflächen-Masken im Detail,
  • 4 zeigt die Kombination eines PET-Systems mit einem optischen 3D-Sensor-System, und
  • 5 zeigt die Fusion eines funktionellen mit einem morphologischen Bild am Beispiel eines Nackentumors.
  • Die vorliegende Erfindung beschreibt ein Verfahren, wie mittels optischer Oberflächenerkennung exakt, schnell und sicher die Patienten-Position erfasst und damit ein intraoperativer 2D- oder 3D-Bilddatensatz mit einem präoperativen 3D-Bilddatensatz schnell und daher intraoperativ fusioniert werden kann.
  • Optische Oberflächenerkennung ist Stand der Technik und wird kommerziell angeboten.
  • Basis dieser Technologie ist ein optisches 3D-Sensor-System, das spezielle Bilder eines oder mehrerer 3D-Sensoren geeignet verarbeitet. Dieser 3D-Sensor beobachtet ein zu vermessendes Objekt von der Seite. Zur Vermessung wird die Oberfläche des Messobjektes nach einem patentierbaren Verfahren mittels Weißlicht-Projektor mit einem Streifenmaster beleuchtet. Aus der sich bei seitlicher Beobachtung ergebenden Verschiebung der Streifen wird die Oberflächenform des Objektes berechnet und beispielsweise als Dreiecksmodell zur weiteren Verfügbarkeit abgespeichert. Die geringe Messzeit und die schnelle Auswertung liefert innerhalb einer Sekunde eine hochgenaue Form-Erfassung von Objekten verschiedener Art und Größe bei einer Auflösung bis zu 200 μm.
  • Das erfindungsgemäße Verfahren verwendet dieses schnelle Oberflächenvermessungsverfahren um im Gegensatz zu bisherigen Verfahren eine schnellere und exaktere Registrierung von intraoperativen Bilddatensätzen mit präoperativen 3D-Datensätzen zu ermöglichen. Das erfindungsgemäße Verfahren wird im Folgenden anhand der 1 und 2 erläutert.
  • Voraussetzung für das erfindungsgemäße Verfahren sind ein optisches 3D-Sensor-System (wie oben beschrieben), eine intraoperative Bildgebungsmodalität (z.B. C-Bogen, PET, SPECT usw.) sowie ein präoperativer 3D-Bilddatensatz einer morphologischen Bildgebungsmodalität (z.B. CT, MRT), welcher die Oberfläche der intraoperativ darzustellenden interessierenden Region enthält.
  • Zunächst wird das optische 3D-Sensor-System relativ zu der intraoperativen Bildgebungsmodalität (im Folgenden wird ohne Beschränkung der Allgemeinheit von einem C-Bogen oder einem PET gesprochen) so positioniert, dass der Bereich des 3D-Sensors ein "freies Blickfeld" auf die Oberflache des interessierenden und daher zu registrierenden Untersuchungsgebietes hat. Bei Neurointerventionen im Bereich des Kopfes bietet sich beispielsweise die Oberfläche des Gesichtes an, so dass der 3D-Sensor über dem Patienten am C-Bogen selbst oder an der Decke über dem Kopfende der Patientenliege zu befestigen ist. In einem Schritt S1 des Verfahrens wird das optische 3D-Sensor-System mit dem intraoperativen System (C-Bogen) räum lich kalibriert, so dass die Lage bzw. Blickrichtung der beiden Systeme zueinander bekannt ist. Demzufolge ist die Relation beider Koordinatensysteme (Koordinaten-Ursprung des Koordinatensystems des optischen 3D-Sensor-Systems mit dem Koordinaten-Ursprung des Koordinatensystems des intraoperativen Systems) durch diesen Schritt der einmaligen Kalibrierung bekannt, was in 2 durch die waagrechte, mit "Kalibrierung" bezeichnete Verbindungslinie symbolisiert ist.
  • In einem zweiten Schritt S2 wird die Oberfläche des interessierenden Untersuchungsgebietes mit dem 3D-Sensor-System intraoperativ erfasst und unmittelbar danach ausgewertet, wodurch eine intraoperative Oberflächenmaske erhalten und beispielsweise als Dreiecksmodell gespeichert wird. In 2 ist die intraoperative Oberflächenmaske als Kreis symbolisiert. Ein reales Dreiecksmodell eines Gesichtes ist beispielhaft in 3 dargestellt.
  • In einem Schritt S3 erfolgt das intraoperative Aufnehmen des die intraoperative Oberflächenmaske zumindest zum Teil enthaltenden interessierenden Untersuchungsgebietes mit dem C-Bogen, wodurch ein intraoperativer Bilddatensatz erhalten wird, der in 2 als Rechteck symbolisiert ist und den Kreis (die Maske) zumindest zum Teil enthält.
  • In einem vierten Schritt S4 wird aus einem präoperativen 3D-Bilddatensatz des interessierenden Untersuchungsgebietes die im wesentlichen gleiche Oberfläche berechnet (rein rechnerisch extrahiert), wodurch eine weitere, diesmal allerdings eine präoperative Oberflächenmaske erhalten wird, in 2 ebenfalls durch einen Kreis symbolisiert.
  • Beide Oberflächenmasken sind sich grundsätzlich sehr ähnlich (siehe 3), da keine große Oberflächenveränderung des Untersuchungsgebietes im Zeitraum zwischen präoperativer Aufnahme und intraoperativer Aufnahme (maximal wenige Tage) zu erwarten ist. Aus diesem Grund können in einem fünften Schritt S5 beide Oberflächenmasken zueinander ausgesprochen schnell und mit wenig Fehlertoleranz registriert werden, im Gegensatz zu derzeitigen Registrierverfahren, die nur wenige anatomische oder künstliche Landmarken zur Verfügung haben. Die Registrierung ist in 2 mit der vertikalen Verbindungslinie zwischen beiden Masken symbolisiert.
  • Da die Struktur beider Masken, insbesondere aber die der intraoperativen Maske, in dem intraoperativen Bilddatensatz zumindest zum Teil enthalten ist (symbolisiert durch den im Rechteck enthaltenen Teil-Kreis), kann auf Basis der Kalibrierung und der Registrierung in einem Schritt S6 eine Abbildungsvorschrift ermittelt werden, wie das präoperative Bild gedreht und verschoben werden muss, um mit dem intraoperativen Bild zur Deckung gebracht werden zu können (symbolisiert durch die Schräge Verbindungslinie in 2). Auf Basis dieser Abbildungsvorschrift kann schließlich der relevante Bereich des präoperativen 3D-Bilddatensatzes mit dem intraoperativen Bilddatensatz überlagert und mit diesem gemeinsam auf einem Bildschirm in einem Schritt S7 visualisiert werden.
  • Es sei bemerkt, dass die Schritte S2, S3 und S4 des Verfahrens in der Rangfolge vertauscht werden können, was in 2 durch eine Anordnung der Verfahrensschritte auf einer Ebene symbolisiert worden ist. So kann beispielsweise die Extraktion der Oberfläche des präoperativen 3D-Bilddatensatzes sozusagen "offline" bereits vor dem optischen intraoperativen Erfassen und auch vor dem intraoperativen Aufnehmen erfolgen.
  • Die optische Messung (Schritt S2) kann entweder immer kurz vor der Durchführung einer intraoperativen Aufnahme und/oder periodisch während der Intervention erfolgen. Wird die Oberfläche des Untersuchungsgebietes mit Hilfe des optischen 3D-Sensor-Systems während der Untersuchung mit einer intraoperativen funktionellen Bildgebungsmodalität (PET oder SPECT) periodisch oder gar kontinuierlich erfasst, kann eine mögliche Bewegung des Untersuchungsgebietes relativ zur PET- oder SPECT-Gantry detektiert werden und ein sogenanntes Bewegungsfeld (Bewegungsverlauf bezüglich des Untersuchungsgebietes) berechnet werden. Da nuklear-medizinische Untersuchungsverfahren wie PET und SPECT mit einer verhältnismäßig langen Akquisitionszeit von typischerweise wenigen Minuten (PET) bis zu mehr als 20 Minuten (SPECT) verbunden sind, sind Bewegungsartefakte in der PET- und SPECT-Bildgebung relativ häufig gegeben bzw. die Auflösung von PET- und SPECT ist wegen der Bild-Verschmierung durch Patientenbewegung reduziert.
  • Das mit Hilfe des optischen 3D-Sensor-System ermittelte Bewegungsfeld kann in einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens dazu verwendet werden, die durch Patientenbewegung fehlerhafte Ortsauflösung von (metabolischen) Ereignissen zu korrigieren, um so Bewegungsartefakte in PET- und SPECT-Aufnahmen zu reduzieren bzw. deren Auflösung zu verbessern.
  • Dabei gibt es hinsichtlich der räumlichen Anordnung des optischen 3D-Sensor-Systems relativ zur intraoperativen Bildgebungsmodalität, insbesondere des 3D-Sensors selbst, unterschiedliche Möglichkeiten, an die das räumliche Kalibrieren gemäß Schritt S1 jeweils angepasst werden muss.
  • Besteht eine feste räumliche Beziehung zwischen dem Koordinatensystem des optischen 3D-Sensors und dem Koordinatensystem der intraoperativen Bildgebungsmodalität, beispielsweise indem der 3D-Sensor starr mit der intraoperativen Bildgebungsmodalität verbunden ist oder indem der optische 3D-Sensor an einem festen Ort im Operationssaal montiert ist (z.B. an der Decke), so reicht es die Kalibrierung nur einmal vorzunehmen (z.B. bei oder nach der Montage). Mögliche Veränderungen, z.B. Drehen des 3D-Sensors in seiner Verankerung, können über Drehsensoren rückgemeldet werden, wonach eine automatische Aktualisierung (engl. update) der räumlichen Beziehung beider Koordinatensysteme zueinander erfolgen kann.
  • Besteht eine grundsätzlich flexible Anordnung des 3D-Sensors zur intraoperativen Bildgebungsmodalität, beispielsweise in dem der 3D-Sensor innerhalb des Operations-Saales auf einem mobilen Stativ (ähnlich einem Infusionsständer) montiert frei bewegt werden kann oder in dem beide Systeme mobil sind, so kann die Kalibrierung der räumlichen Beziehung beider Systeme mittels Positions- und/oder Orientierungssensoren vorgenommen werden, die sowohl am 3D-Sensor als auch an der intraoperativen Bildgebungsmodalität montiert sind, um so die Bestimmung der Position und Lage beider Systeme zueinander zu ermöglichen.
  • Zusammengefasst besteht die vorliegende Erfindung in einem Verfahren zur verbesserten intraoperativen Registrierung intraoperativer 2D-fluoro-Bilder oder funktioneller 3D-Bilder mit (morphologischen) 3D-Bilddatensätzen, wobei
    • – ein optisches 3D-Sensor-System zur 3D-Oberflächenvermessung des Untersuchungsbereiches verwendet wird,
    • – die räumliche Beziehung zwischen dem Koordinatensystem des optischen 3D-Sensor-Systems und der intraoperativen Bildgebungsmodalität durch Kalibrierung und gegebenenfalls durch Verwendung von Positionssensoren bekannt ist, und wobei
    • – die berechnete (extrahierte) Oberflächenmaske der (morphologischen) präoperativen 3D-Bilder mit der mittels optischem 3D-Sensor erfassten Oberflächenmaske des Untersuchungsgebietes (oberflächenbasiert) registriert wird.
  • Im Anschluss an Kalibrierung und Registrierung können folgende Darstellungs-Kombinationen realisiert werden:
    • a) 2D-Fluorobild + morphologisches 3D-Bild
    • b) funktionelles 3D-Bild + morphologisches 3D-Bild
    • c) intraoperative Oberflächenmaske + funktionelles 3D-Bild.
  • Im Falle einer Darstellung funktioneller Foci einer PET- oder SPECT-Untersuchung (beispielsweise durch farbkodierte Metabo lismen) gemeinsam mit der (beispielsweise transparent dargestellten) optisch erfassten Oberfläche des Untersuchungsgebietes (Kombination c)) erhält der Anwender zwar keine Abbildung der funktionellen Foci relativ zur exakten Anatomie, aber immerhin relativ zu einer Oberflächen-Repräsentation des Untersuchungsgebietes. So kann die gemeinsame Visualisierung von Oberfläche und funktioneller 3D-Bilder für die anatomische Beurteilung oberflächennaher Läsionen (z.B. Knochen-Tumore) hilfreich sein.
  • Außerdem kann diese Art der Visualisierung zur Planung minimalinvasiver Zugänge bei Nadelbiopsie-Prozeduren oder bei der Einführung von Trokaren in der Gastroenterologie verwendet werden.

Claims (7)

  1. Verfahren zur intraoperativen Registrierung intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen, aufweisend die folgenden Schritte: S1: räumliches Kalibrieren eines optischen 3D-Sensor-Systems mit einer intraoperativen Bildgebungsmodalität, S2: intraoperatives Erfassen der Oberfläche eines interessierenden Untersuchungsgebietes mit dem 3D-Sensor-System, wodurch eine intraoperative Oberflächenmaske erhalten wird, S3: intraoperatives Aufnehmen des die intraoperative Oberflächenmaske zumindest zum Teil enthaltenden interessierenden Untersuchungsgebietes mit der intraoperativen Bildgebungsmodalität, wodurch ein intraoperativer Bilddatensatz erhalten wird, S4: Berechnen der im Wesentlichen gleichen Oberfläche aus einem die erfasste bzw. aufgenommene Oberfläche enthaltenden präoperativ gewonnenen 3D-Bilddatensatz, wodurch eine präoperative Oberflächenmaske erhalten wird, S5: Registrieren der intraoperativen und präoperativen Oberflächenmaske zueinander, S6: Ermitteln einer Abbildungsvorschrift zwischen präoperativem 3D-Bilddatensatz und intraoperativem Bilddatensatz auf Basis der Kalibrierung und der Registrierung und S7: überlagertes Visualisieren des intraoperativen Bilddatensatzes mit dem präoperativen 3D-Datensatz auf Basis der Abbildungsvorschrift.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der intraoperative Bilddatensatz ein 2D-Fluorobild eines Röntgen-C-Bogens ist.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die intraoperative Bildgebungsmodalität ein fMRT-Gerät, ein PET-Gerät, ein SPECT-Gerät oder eine funktionale Mapping-Modalität wie ein EEG oder ein MEG darstellt.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der präoperative 3D-Bilddatensatz einer morphologischen Bildgebungsmodalität in Form eines MRT-Gerätes, eines CT-Gerätes, eines C-Bogen-Rotationsangiographie-Gerätes oder eines 3D-Ultraschall-Gerätes entstammt.
  5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das intraoperative Erfassen kurz vor einem intraoperativen Aufnehmen oder periodisch während der Intervention erfolgt.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass auf Basis der Messergebnisse des optischen 3D-Sensor-Systems ein Bewegungsfeld des Untersuchungsgebietes berechnet wird, welches dazu verwendet wird, Bewegungsartefakte in intraoperativen Aufnahmen zu reduzieren bzw. deren Auflösung zu verbessern.
  7. Vorrichtung zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
DE102005036322A 2005-07-29 2005-07-29 Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion Withdrawn DE102005036322A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102005036322A DE102005036322A1 (de) 2005-07-29 2005-07-29 Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion
US11/496,069 US7664542B2 (en) 2005-07-29 2006-07-28 Registering intra-operative image data sets with pre-operative 3D image data sets on the basis of optical surface extraction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005036322A DE102005036322A1 (de) 2005-07-29 2005-07-29 Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion

Publications (1)

Publication Number Publication Date
DE102005036322A1 true DE102005036322A1 (de) 2007-02-15

Family

ID=37680855

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005036322A Withdrawn DE102005036322A1 (de) 2005-07-29 2005-07-29 Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion

Country Status (2)

Country Link
US (1) US7664542B2 (de)
DE (1) DE102005036322A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007037103A1 (de) * 2007-08-07 2009-02-26 Siemens Ag Verfahren und Vorrichtung zum bildlichen Darstellen von funktionellen und elektrischen Aktivitäten des Gehirns
DE102012209350A1 (de) 2012-06-04 2013-12-05 Siemens Aktiengesellschaft Verfahren zur Berücksichtigung einer Patientenbewegung während eines Eingriffs
DE102014216023A1 (de) 2014-08-13 2016-03-03 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Überlagerung eines 3D-Bilddatensatzes in einem 2D-Bild mit Atmungsbewegungskompensation

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7885441B2 (en) * 2006-10-11 2011-02-08 General Electric Company Systems and methods for implant virtual review
US9477686B2 (en) * 2007-01-12 2016-10-25 General Electric Company Systems and methods for annotation and sorting of surgical images
JP5449175B2 (ja) * 2007-10-26 2014-03-19 コーニンクレッカ フィリップス エヌ ヴェ マルチモダリティ軟組織画像化のための閉ループレジストレーション制御
WO2009081318A1 (en) * 2007-12-18 2009-07-02 Koninklijke Philips Electronics, N.V. System for multimodality fusion of imaging data based on statistical models of anatomy
FR2936890B1 (fr) * 2008-10-03 2010-12-03 Univ Grenoble 1 Procede de traitement d'image pour estimer une deformation d'un cerveau d'un patient
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8675939B2 (en) 2010-07-13 2014-03-18 Stryker Leibinger Gmbh & Co. Kg Registration of anatomical data sets
US8712177B2 (en) * 2011-01-25 2014-04-29 Siemens Aktiengesellschaft Motion compensated overlay
US20140218720A1 (en) * 2013-02-04 2014-08-07 Novadaq Technologies Inc. Combined radiationless automated three dimensional patient habitus imaging with scintigraphy
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
WO2017000988A1 (en) * 2015-06-30 2017-01-05 Brainlab Ag Medical image fusion with reduced search space
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US11386556B2 (en) * 2015-12-18 2022-07-12 Orthogrid Systems Holdings, Llc Deformed grid based intra-operative system and method of use
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
CN106420057B (zh) * 2016-11-23 2023-09-08 北京锐视康科技发展有限公司 一种pet-荧光双模态术中导航成像系统及其成像方法
US20200018865A1 (en) * 2017-02-13 2020-01-16 Molecular Dynamics Limited Image processing with improved resolution isotropy
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
EP3694412A4 (de) 2017-10-10 2021-08-18 Covidien LP System und verfahren zur identifizierung und markierung eines ziels in einer fluoroskopischen dreidimensionalen rekonstruktion
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
EP3712900A1 (de) * 2019-03-20 2020-09-23 Stryker European Holdings I, LLC Technik zur verarbeitung patientenspezifischer bilddaten für computergestützte chirurgische navigation
WO2022032455A1 (en) * 2020-08-10 2022-02-17 Shanghai United Imaging Healthcare Co., Ltd. Imaging systems and methods
CN113855247A (zh) * 2021-10-21 2021-12-31 南京普爱医疗设备股份有限公司 一种手术机器人一体化配准装置及操作方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19757773A1 (de) * 1997-12-24 1999-07-01 Bernward Maehner Verfahren zur dreidimensionalen, detaillierten Simulation plastischer Veränderungen an menschlichen Körperpartien

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980078357A (ko) 1997-04-28 1998-11-16 배순훈 가변속도 제어에 의한 냉각팬모터 제어방법 및 장치
US6782287B2 (en) * 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
US7546156B2 (en) * 2003-05-09 2009-06-09 University Of Rochester Medical Center Method of indexing biological imaging data using a three-dimensional body representation
US7103399B2 (en) * 2003-09-08 2006-09-05 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19757773A1 (de) * 1997-12-24 1999-07-01 Bernward Maehner Verfahren zur dreidimensionalen, detaillierten Simulation plastischer Veränderungen an menschlichen Körperpartien

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GRIMSON E., LEVENTON M., ETTINGER G.,CHABRERIE A., OZLEN F., NAKAJIMA S., ATSUMI H., KIKINIS R., BLACK, P.: "Clinical Experience with a High Precision Image-guided Neurosurgery System", Lecture Notes in Computer Science (Springer), Proc. MICCAI'98, Oct. 1998, S. 63ff
GRIMSON E., LEVENTON M., ETTINGER G.,CHABRERIE A.,OZLEN F., NAKAJIMA S., ATSUMI H., KIKINIS R., BLACK, P.: "Clinical Experience with a High Precision Image-guided Neurosurgery System", Lecture Notes in Computer Science (Springer), Proc. MICCAI'98, Oct. 1998, S. 63ff *
SCHROEDER S.A., FUCHS H., SPASOVSKI S.,DANKERT A.: "Intraoperative Corneal Topography for Image Registration", Journal of Refractive Surgery, 2002, Vol. 18, PART 5, pages S624-S629
SCHROEDER S.A., FUCHS H., SPASOVSKI S.,DANKERT A.:"Intraoperative Corneal Topography for Image Registration", Journal of Refractive Surgery, 2002, Vol. 18, PART 5, pages S624-S629 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007037103A1 (de) * 2007-08-07 2009-02-26 Siemens Ag Verfahren und Vorrichtung zum bildlichen Darstellen von funktionellen und elektrischen Aktivitäten des Gehirns
DE102007037103B4 (de) * 2007-08-07 2015-12-17 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum bildlichen Darstellen von funktionellen und elektrischen Aktivitäten des Gehirns
DE102012209350A1 (de) 2012-06-04 2013-12-05 Siemens Aktiengesellschaft Verfahren zur Berücksichtigung einer Patientenbewegung während eines Eingriffs
DE102012209350B4 (de) * 2012-06-04 2015-08-20 Siemens Aktiengesellschaft Verfahren zur Berücksichtigung einer Patientenbewegung während eines Eingriffs und medizinische Einrichtung
DE102014216023A1 (de) 2014-08-13 2016-03-03 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Überlagerung eines 3D-Bilddatensatzes in einem 2D-Bild mit Atmungsbewegungskompensation

Also Published As

Publication number Publication date
US20070238952A1 (en) 2007-10-11
US7664542B2 (en) 2010-02-16

Similar Documents

Publication Publication Date Title
DE102005036322A1 (de) Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion
DE19963440C2 (de) Verfahren und System zur Visualisierung eines Gegenstandes
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
DE102008030244A1 (de) Verfahren zur Unterstützung von perkutanen Interventionen
DE102006012945B4 (de) Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem
EP1199031A2 (de) Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren
DE102010036538A1 (de) System und Verfahren zum Kompensieren einer respiratorischen Bewegung in akquirierten radiographischen Bildern
DE102005059804A1 (de) Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
DE102007034955A1 (de) Verfahren zur Bewegungsvorgänge berücksichtigenden Aufnahme von Messdaten eines Patienten und zugehörige medizinische Einrichtung
EP1321101A2 (de) Verfahren zur Unterstützung der Orientierung im Gefässsystem
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
WO2014080013A1 (de) Hybrides bildgebungssystem und verfahren für intraoperative, interventionelle und diagnostische anwendungen
DE102019201227A1 (de) Bildgebendes Gerät und Verfahren zum Erzeugen eines bewegungskompensierten Bildes oder Videos, Computerprogrammprodukt und computerlesbares Speichermedium
DE102014205313B4 (de) Verfahren zur Registrierung einer Nahinfrarotspektroskopiekarte und eines Anatomiebilddatensatzes und Röntgeneinrichtung
DE102011087128B4 (de) Projektionswinkelbestimmung bei einer kontrastmittelgestützten Dual-Energy-Tomosynthese
DE102005022901B4 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung eines sich in einem Objekt befindlichen Instruments
DE10317132A1 (de) Kombination von Tomographie- und radiographischem Projektions-System
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102007051479B4 (de) Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention
DE102009024652A1 (de) Hochauflösende, dreidimensionale medizinische Bildgebung mit dynamischen Echtzeitinformationen
DE102014210051A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers
DE102005046410A1 (de) Verfahren zur Kombination präoperativer 3D-Bilddatensätze mit intraoperativen 2D-Bilddatensätzen
EP3499461B1 (de) Darstellung von markern in der medizinischen bildgebung
DE102011083853B4 (de) Fusionierte SPECT/C-Bogen-Bildgebung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
8130 Withdrawal