DE102020201928A1 - Verfahren zur Deformationskorrektur - Google Patents

Verfahren zur Deformationskorrektur Download PDF

Info

Publication number
DE102020201928A1
DE102020201928A1 DE102020201928.2A DE102020201928A DE102020201928A1 DE 102020201928 A1 DE102020201928 A1 DE 102020201928A1 DE 102020201928 A DE102020201928 A DE 102020201928A DE 102020201928 A1 DE102020201928 A1 DE 102020201928A1
Authority
DE
Germany
Prior art keywords
image data
data set
training
segmented
deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020201928.2A
Other languages
English (en)
Inventor
Katharina Breininger
Patrick Loeber
Marcus Pfister
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Friedrich Alexander Univeritaet Erlangen Nuernberg FAU, Siemens Healthcare GmbH filed Critical Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Priority to US17/159,143 priority Critical patent/US11657519B2/en
Publication of DE102020201928A1 publication Critical patent/DE102020201928A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • G06T3/14
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Geometry (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Deformationskorrektur, umfassend:a) Empfangen eines präoperativen 3D-Bilddatensatzes von einem Untersuchungsbereich eines Untersuchungsobjekts,b) Erzeugen eines segmentierten 3D-Bilddatensatzes durch Segmentieren einer anatomischen Struktur in dem präoperativen 3D-Bilddatensatz,c) Aufnehmen von Bilddaten von dem Untersuchungsbereich, wobei ein medizinisches Objekt in dem Untersuchungsbereich angeordnet ist,d) Identifizieren des medizinischen Objekts in den Bilddaten,e) Registrieren des segmentierten 3D-Bilddatensatzes mit den Bilddaten,f.1) und f.2) Erzeugen und Anzeigen eines Überlagerungsdatensatzes basierend auf dem segmentierten 3D-Bilddatensatz und den Bilddaten,f.3) Festlegen einer Position einer Abweichung zwischen den Bilddaten und dem segmentierten 3D-Bilddatensatz,f.4) Ermitteln einer Deformationsvorschrift zur Verringerung der Abweichung zwischen den Bilddaten und dem segmentierten 3D-Bilddatensatz,f.5) und f.6) Erzeugen und Bereitstellen des korrigierten Überlagerungsdatensatzes.Die Erfindung betrifft weiterhin ein Verfahren zum Bereitstellen einer trainierten Funktion, ein Verfahren zum Bereitstellen einer weiteren trainierten Funktion, eine Trainingseinheit, ein medizinisches Bildgebungsgerät, sowie ein Computerprogrammprodukt.

Description

  • Die Erfindung betrifft ein Verfahren zur Deformationskorrektur, ein Verfahren zum Bereitstellen einer trainierten Funktion, ein Verfahren zum Bereitstellen einer weiteren trainierten Funktion, eine Trainingseinheit, ein medizinisches Bildgebungsgerät, sowie ein Computerprogrammprodukt.
  • Bei der Behandlung und/oder Untersuchung von Veränderungen an Gefäßen eines Untersuchungsobjekts werden häufig medizinische Objekte, beispielsweise ein Führungsdraht und/oder ein Katheter, in ein Gefäß eingebracht. Für die bildgebende Echtzeitüberwachung des medizinischen Objekts in dem Gefäß werden häufig Projektionsröntgenbilder unter Applikation, insbesondere jodhaltiger, Kontrastmittel aufgenommen. Dabei kann durch eine Registrierung und anschließende Überlagerung eines präoperativ aufgenommenen Bilddatensatzes mit einem der Projektionsröntgenbilder oftmals eine Einsparung des zu applizierenden Kontrastmittels erreicht werden.
  • Nachteilig ist dabei jedoch häufig, dass durch die Anordnung des medizinischen Objekts in dem Gefäß eine Verformung des Gefäßes und umliegender Gewebe auftreten kann, welche Verformung in dem präoperativen Bilddatensatz nicht abgebildet ist. Zur Korrektur der Verformung in dem präoperativen Bilddatensatz wird häufig ein Verformungsmodell verwendet, welches auf einem Materialparameter des medizinischen Objekts basiert, und/oder eine zeitaufwändige manuelle Anpassung basierend auf mehreren Projektionsröntgenbildern, welche unter Applikation von Kontrastmittel aufgenommen wurden. Dabei ist die Korrektur des präoperativen Bilddatensatzes häufig insbesondere an Ostien und/oder Gefäßbifurkationen unzureichend.
  • Der Erfindung liegt daher die Aufgabe zugrunde eine verbesserte Darstellung einer anatomischen Struktur und eines darin angeordneten medizinischen Objekts zu ermöglichen.
  • Die Aufgabe wird erfindungsgemäß gelöst durch den jeweiligen Gegenstand der unabhängigen Ansprüche. Vorteilhafte Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.
  • Nachstehend wird die erfindungsgemäße Lösung der Aufgabe sowohl in Bezug auf Verfahren zur Deformationskorrektur als auch in Bezug auf Verfahren und Vorrichtungen zum Bereitstellen einer trainierten Funktion und Verfahren und Vorrichtungen zum Bereitstellen einer weiteren trainierten Funktion beschrieben. Hierbei können Merkmale, Vorteile und alternative Ausführungsformen von Datenstrukturen und/oder Funktionen bei Verfahren zur Deformationskorrektur auf analoge Datenstrukturen und/oder Funktionen bei Verfahren und Vorrichtungen zum Bereitstellen einer trainierten Funktion übertragen und Verfahren und Vorrichtungen zum Bereitstellen einer weiteren trainierten Funktion übertragen werden. Analoge Datenstrukturen können hierbei insbesondere durch die Verwendung der Vorsilbe „Trainings“ gekennzeichnet sein. Weiterhin können die in Verfahren zur Deformationskorrektur verwendeten trainierten Funktionen insbesondere durch Verfahren und Vorrichtungen zum Bereitstellen einer trainierten Funktion und/oder durch Verfahren zum Bereitstellen einer weiteren trainierten Funktion angepasst und/oder bereitgestellt worden sein.
  • Die Erfindung betrifft in einem ersten Aspekt ein Verfahren zur Deformationskorrektur. Dabei wird in einem ersten Schritt a) ein präoperativer dreidimensionaler Bilddatensatz (3D-Bilddatensatz) von einem Untersuchungsbereich eines Untersuchungsobjekts empfangen. Ferner wird in einem zweiten Schritt b) ein segmentierter 3D-Bilddatensatz durch Segmentieren der zumindest einen anatomischen Struktur in dem präoperativen 3D-Bilddatensatz erzeugt. Zudem werden in einem dritten Schritt, insbesondere intraoperativ, Bilddaten von dem Untersuchungsbereich aufgenommen. Dabei ist ein medizinisches Objekt in dem Untersuchungsbereich angeordnet. In einem vierten Schritt d) wird eine Abbildung des medizinischen Objekts in den Bilddaten identifiziert. Ferner wird der segmentierte 3D-Bilddatensatz mit den Bilddaten in einem fünften Schritt e) registriert. Hiernach wird in einem sechsten Schritt f.1) ein Überlagerungsdatensatz basierend auf dem segmentierten 3D-Bilddatensatz und den Bilddaten erzeugt. Ferner wird in einem siebten Schritt f.2) eine graphische Darstellung des Überlagerungsdatensatzes mittels einer Darstellungseinheit angezeigt. Des Weiteren wird in einem achten Schritt f.3) eine Position einer Abweichung zwischen den Bilddaten und dem segmentierten 3D-Bilddatensatz in der graphischen Darstellung des Überlagerungsdatensatzes festgelegt. Hiernach wird in einem neunten Schritt f.4) eine Deformationsvorschrift basierend auf der festgelegten Position der Abweichung und der identifizierten Abbildung des medizinischen Objekts derart ermittelt, dass die Abweichung zwischen den Bilddaten und dem segmentierten 3D-Bilddatensatz verringert wird. In einem zehnten Schritt f.5) wird ein korrigierter Überlagerungsdatensatz durch Anwenden der Deformationsvorschrift auf den segmentierten 3D-Bilddatensatz erzeugt. Hiernach wird der korrigierte Überlagerungsdatensatz in einem elften Schritt f.6) bereitgestellt.
  • Dabei können die vorstehend beschriebenen Schritte vorteilhafterweise nacheinander und/oder zumindest teilweise gleichzeitig ausgeführt werden.
  • Das Empfangen des präoperativen 3D-Bilddatensatzes von dem Untersuchungsbereich des Untersuchungsobjekts in Schritt a) kann insbesondere ein Erfassen und/oder Auslesen eines computerlesbaren Datenspeichers und/oder ein Empfangen aus einer Datenspeichereinheit, beispielsweise einer Datenbank, umfassen. Ferner kann der präoperative 3D-Bilddatensatz von einer Bereitstellungseinheit eines ersten medizinischen Bildgebungsgeräts bereitgestellt werden.
  • Ferner kann der präoperative 3D-Bilddatensatz mehrere Bildpunkte, insbesondere Voxel, aufweisen. Dabei kann der präoperative 3D-Bilddatensatz vorteilhafterweise ein räumliches Volumen des Untersuchungsbereichs des Untersuchungsobjekts präoperativ dreidimensional abbilden. Dabei kann das Untersuchungsobjekt beispielsweise ein menschlicher und/oder tierischer Patient und/oder ein Untersuchungsphantom sein. Der präoperative 3D-Bilddatensatz kann insbesondere mittels des ersten medizinischen Bildgebungsgeräts, beispielsweise einer Computertomographieanlage (CT) und/oder einer Magnetresonanzanlage (MRT) und/oder einem medizinischen Röntgengerät und/oder einer Sonographieanlage und/oder einer Positronenemissionstomographieanlage (PET), aufgenommen sein. Des Weiteren kann der präoperative 3D-Bilddatensatz Metadaten aufweisen, wobei die Metadaten beispielsweise eine Information zu einem Aufnahmeparameter und/oder Betriebsparameter des ersten medizinischen Bildgebungsgeräts umfassen können.
  • Durch Segmentierten zumindest einer anatomischen Struktur, beispielsweise einem Organ und/oder einem Gewebe und/oder einer Gewebegrenze und/oder einem Gefäß, insbesondere einem Gefäßabschnitt, in dem präoperativen 3D-Bilddatensatz kann der segmentierte 3D-Bilddatensatz erzeugt werden. Dabei kann das Segmentieren der zumindest einen anatomischen Struktur ein Anwenden eines Algorithmus zur Musterkennung und/oder zur Identifikation anatomischer Strukturen auf den präoperativen 3D-Bilddatensatz umfassen. Alternativ oder zusätzlich kann das Segmentieren der zumindest einen anatomischen Struktur auf Bildwerten, insbesondere Bildintensitätswerten und/oder Bildkontrastwerten, in dem 3D-Bilddatensatz basieren. Die zumindest eine anatomische Struktur kann beispielsweise in dem präoperativen 3D-Bilddatensatz durch einen Abgleich der Bildwerte des präoperativen 3D-Bilddatensatzes mit einem vorbestimmten Bildwerteintervall und/oder einem vorbestimmten Schwellwert segmentiert werden. Dabei können vorteilhafterweise Bildbereiche, die nicht die zumindest eine anatomische Struktur abbilden, durch die Segmentierung von dem segmentierten 3D-Bilddatensatz ausgespart und/oder herausgefiltert werden. Insbesondere kann der präoperative 3D-Bilddatensatz den Untersuchungsbereich unter Applikation eines, insbesondere röntgenopaken, Kontrastmittels abbilden. Dabei kann die zumindest eine anatomische Struktur vorteilhafterweise in dem präoperativen 3D-Bilddatensatz einen definierten Bildkontrastwert und/oder Bildintensitätswert aufweisen. Ferner kann der segmentierte 3D-Bilddatensatz eine dreidimensionale, insbesondere isolierte, Abbildung der zumindest einen anatomischen Struktur aufweisen. Die anatomische Struktur kann insbesondere ein Gefäß, beispielsweise ein Blutgefäß, und/oder ein Gefäßabschnitt und/oder ein Gefäßbaum und/oder ein Hohlorgan sein.
  • Das Aufnehmen der Bilddaten von dem Untersuchungsbereich des Untersuchungsobjekts im Schritt c) kann, insbesondere intraoperativ, mittels eines medizinischen Bildgebungsgeräts erfolgen. Dabei kann das medizinische Bildgebungsgerät das erste medizinische Bildgebungsgerät sein oder von diesem verschieden sein. Insbesondere kann das medizinische Bildgebungsgerät als Computertomographieanlage (CT) und/oder Magnetresonanzanlage (MRT) und/oder medizinisches Röntgengerät und/oder Sonographieanlage und/oder Positronenemissionstomographieanlage (PET) ausgebildet sein. Dabei können die Bilddaten zumindest eine zweidimensionale und/oder dreidimensionale Abbildung des Untersuchungsbereichs aufweisen. Insbesondere können die Bilddaten eine zeitaufgelöste Abbildung des Untersuchungsbereichs aufweisen, wobei eine Bewegung des medizinischen Objekts innerhalb des Untersuchungsbereichs in den Bilddaten abgebildet werden kann. Dabei kann das medizinische Objekt beispielsweise als Führungsdraht und/oder Katheter und/oder Endoskop und/oder Laparoskop und/oder Implantat ausgebildet sein. Ferner kann das medizinische Objekt in der zumindest einen anatomischen Struktur angeordnet sein. Vorteilhafterweise kann eine Positionierung und/oder Bewegung des medizinischen Objekts mittels der Bilddaten bildgebend überwacht werden. Ferner können die Bilddaten vorteilhafterweise zumindest einen Teil der zumindest einen anatomischen Struktur, insbesondere zeitaufgelöst, abbilden. Dabei können die Bilddaten den Untersuchungsbereich, insbesondere den zumindest einen Teil der zumindest einen anatomischen Struktur, unter Applikation eines, insbesondere röntgenopaken, Kontrastmittels abbilden. Die Bilddaten können somit vorteilhafterweise den Untersuchungsbereich aufweisend zumindest einen Teil der zumindest einen anatomischen Struktur und aufweisend das medizinische Objekt, insbesondere zeitaufgelöst, abbilden.
  • Ferner können die Bilddaten mehrere Bildpunkte, insbesondere Pixel und/oder Voxel, aufweisen. Das Identifizieren der Abbildung des medizinischen Objekts in den Bilddaten kann insbesondere ein Lokalisieren und/oder Segmentieren der Bildpunkte umfassen, die das medizinische Objekt abbilden. Dabei kann das Identifizieren der Abbildung des medizinischen Objekts insbesondere anhand einer Form, beispielsweise einer Kontur, und/oder einer Struktur, beispielsweise einer Markerstruktur an dem medizinischen Objekt, und/oder basierend auf Bildwerten der Bildpunkte erfolgen. Sofern die Bilddaten eine zeitaufgelöste Abbildung des Untersuchungsbereichs umfassen, kann das medizinische Objekt vorteilhafterweise anhand einer Abbildung einer Bewegung des medizinischen Objekts und/oder einer physiologischen Bewegung, insbesondere Relativbewegung, umliegender anatomischer Bereiche in den Bilddaten identifiziert werden. Insbesondere kann die Abbildung des medizinischen Objekts anhand von Zeitintensitätskurven der Bildpunkte der Bilddaten identifiziert werden.
  • Das Registrieren des segmentierten 3D-Bilddatensatzes mit den Bilddaten kann insbesondere eine rigide und/oder nicht-rigide Transformation der Bilddaten und/oder des segmentierten 3D-Bilddatensatzes umfassen. Insbesondere kann das Registrieren eine Rotation und/oder Skalierung und/oder Verformung der Bilddaten und/oder des segmentierten 3D-Bilddatensatzes umfassen. Sofern die Bilddaten zweidimensional sind, können die zweidimensionalen Bilddaten mit einer zweidimensionalen Schicht des segmentierten 3D-Bilddatensatzes registriert werden. Das Registrieren des segmentierten 3D-Bilddatensatzes mit den Bilddaten kann vorteilhafterweise auf anatomischen Merkmalen und/oder geometrischen Merkmalen und/oder den Metadaten basieren.
  • In Schritt f.1) kann der Überlagerungsdatensatz basierend auf dem segmentierten 3D-Bilddatensatz und den Bilddaten erzeugt werden. Dabei kann das Erzeugen des Überlagerungsdatensatzes vorteilhafterweise eine, insbesondere gewichtete und/oder adaptive, Überlagerung der Bilddaten und des segmentierten 3D-Bilddatensatzes umfassen. Ferner kann der Überlagerungsdatensatz zumindest zweidimensional sein. Vorteilhafterweise umfasst der Überlagerungsdatensatz die in dem segmentierten 3D-Bilddatensatz enthaltene, insbesondere präoperative, Abbildung der zumindest einen anatomischen Struktur und die Abbildung des Untersuchungsbereichs in den, insbesondere intraoperativ aufgenommenen, Bilddaten. Ferner kann zur Erzeugung des Überlagerungsdatensatzes eine, insbesondere zweidimensionale, Projektion des segmentierten 3D-Bilddatensatzes entlang einer vorgegebenen Projektionsrichtung erzeugt werden. Dabei kann der Überlagerungsdatensatz vorteilhafterweise eine, insbesondere gewichtete und/oder adaptive, Überlagerung der Bilddaten mit der Projektion des segmentierten 3D-Bilddatensatzes umfassen. Dies ist insbesondere bei zweidimensionalen Bilddaten, die eine Projektionsabbildung des Untersuchungsbereichs aufweisen, vorteilhaft. Dabei kann die Projektionsrichtung in Abhängigkeit, insbesondere parallel zu, einer Projektionsrichtung zur Aufnahme der Bilddaten vorgegeben sein.
  • Vorteilhafterweise kann im Schritt f.2) eine, insbesondere zweidimensionale, graphische Darstellung des Überlagerungsdatensatzes erzeugt werden. Dabei kann die graphische Darstellung des Überlagerungsdatensatzes vorteilhafterweise derart erzeugt werden, dass die jeweiligen Anteile der Bilddaten und des segmentierten 3D-Bilddatensatzes, insbesondere visuell, unterscheidbar sind. Zudem kann die graphische Darstellung des Überlagerungsdatensatzes mittels der Darstellungseinheit angezeigt werden. Hierdurch kann die graphische Darstellung des Überlagerungsdatensatzes durch einen Nutzer visuell erfassbar sein. Dabei kann die Darstellungseinheit vorteilhafterweise als Bildschirm und/oder Monitor und/oder Projektor ausgebildet sein.
  • Die Abweichung zwischen den Bilddaten und dem segmentierten 3D-Bilddatensatz in der graphischen Darstellung des Überlagerungsdatensatzes kann insbesondere durch eine unzureichende und/oder fehlerhafte Registrierung hervorgerufen werden. Dabei kann die Abweichung vorteilhafterweise eine Fehlausrichtung und/oder Fehlpositionierung, insbesondere Fehlanordnung, von anatomischen und/oder geometrischen Merkmalen der Bilddaten und des segmentierten 3D-Bilddatensatzes in der graphischen Darstellung des Überlagerungsdatensatzes beschreiben. Insbesondere kann zumindest ein Teil der zumindest einen anatomischen Struktur durch die Überlagerung der Bilddaten mit dem segmentierten 3D-Bilddatensatz im Schritt f.1) mehrfach in der graphischen Darstellung des Überlagerungsdatensatzes abgebildet sein. Hierdurch kann die Abweichung vorteilhaft lokalisiert werden. Dabei kann die Position der Abweichung vorteilhafterweise eine räumliche Position zumindest eines Bildpunkts der graphischen Darstellung des Überlagerungsdatensatzes umfassen, wobei die Abbildung der zumindest einen anatomischen Struktur in dem zumindest einen Bildpunkt zwischen dem Anteil der Bilddaten und dem Anteil des segmentierten 3D-Bilddatensatzes abweicht.
  • Vorteilhafterweise kann die Position der Abweichung in der graphischen Darstellung des Überlagerungsdatensatzes durch Anwendung eines Algorithmus zur Lokalisierung von Abweichungen und/oder durch eine Eingabe eines Nutzers festgelegt werden. Dabei kann der Algorithmus zur Lokalisierung von Abweichungen beispielsweise dazu ausgebildet sein, eine Mustererkennung, insbesondere eine Erkennung anatomischer und/oder geometrischer Merkmale, in der graphischen Darstellung des Überlagerungsdatensatzes auszuführen. Insbesondere kann der Algorithmus zur Lokalisierung von Abweichungen dazu ausgebildet sein, die geometrischen und/oder anatomischen Merkmale, die jeweils in dem Anteil der Bilddaten und dem Anteil des segmentierten 3D-Bilddatensatzes, welche Anteile in der graphischen Darstellung des Überlagerungsdatensatzes überlagert sind, miteinander zu vergleichen und eine auftretende Abweichung bildpunktgenau zu lokalisieren.
  • Die im Schritt f.4) ermittelte Deformationsvorschrift kann vorteilhafterweise eine Information zur rigiden und/oder nicht-rigiden Transformation, insbesondere Deformation, des segmentierten 3D-Bilddatensatzes aufweisen. Vorteilhafterweise kann das Ermitteln der Deformationsvorschrift eine, insbesondere kostenminimierende, Optimierung umfassen, wobei die Abweichung, deren Position in der graphischen Darstellung im Schritt f.3) festgelegt wurde, durch Anwenden der Deformationsvorschrift auf den segmentierten 3D-Bilddatensatz minimiert wird. Dabei kann die Optimierung beispielsweise auf einer Kostenfunktion basieren, wobei die Kostenfunktion in Abhängigkeit der in Schritt f.3) festgelegten Abweichung bestimmt ist. Vorteilhafterweise kann die Deformationsvorschrift im Schritt f.4) derart ermittelt werden, dass in Bildbereichen der graphischen Darstellung des Überlagerungsdatensatzes abseits der Position der Abweichung keine Verschlechterung hinsichtlich der Registrierung zwischen der Überlagerung der Bilddaten mit dem segmentierten 3D-Bilddatensatz eintritt. Dabei kann die im Schritt f.3) festgelegte Position der Abweichung insbesondere als Randbedingung für die Ermittlung der Deformationsvorschrift berücksichtigt werden. Alternativ oder zusätzlich kann zumindest eine weitere anatomische Struktur, beispielsweise ein Zugang in eine Femoral Arterie, eine Region einer Aortenklappe und/oder ein proximaler Abschnitt einer Aorta descendens, als deformationsinvarianter Fixpunkt für die Ermittlung der Deformationsvorschrift vorgegeben werden.
  • Das Erzeugen des korrigierten Überlagerungsdatensatzes im Schritt f.5) kann vorteilhafterweise das Anwenden der im Schritt f.4) ermittelten Deformationsvorschrift auf den segmentierten 3D-Bilddatensatz umfassen. Dabei kann vorteilhafterweise ein korrigierter 3D-Bilddatensatz bereitgestellt werden. Hiernach kann der korrigierte Überlagerungsdatensatz vorteilhafterweise durch eine, insbesondere gewichtete und/oder adaptive, Überlagerung der Bilddaten mit dem korrigierten 3D-Bilddatensatz, insbesondere analog zu Schritt f.1) erzeugt werden. Vorteilhafterweise weist der korrigierte Überlagerungsdatensatz zumindest an der im Schritt f.3) festgelegten Position eine geringere Abweichung zwischen den Bilddaten und dem korrigierten 3D-Bilddatensatz auf als der Überlagerungsdatensatz. Dabei können die Schritte f.4) und f.5) insbesondere als Deformationskorrektur des segmentierten 3D-Bilddatensatzes dienen.
  • Des Weiteren kann das Bereitstellen des korrigierten Überlagerungsdatensatzes im Schritt f.6) beispielsweise ein Speichern auf einem computerlesbaren Speichermedium und/oder ein Anzeigen auf der Darstellungseinheit und/oder ein Übertragen an eine Bereitstellungseinheit umfassen. Insbesondere kann eine graphische Darstellung des korrigierten Überlagerungsdatensatzes auf der Darstellungseinheit angezeigt werden.
  • Das vorgeschlagene Verfahren ermöglicht vorteilhafterweise eine besonders intuitive und direkte Korrekturmöglichkeit zur Anpassung und Verbesserung einer Deformationskorrektur. Dabei kann das vorgeschlagene Verfahren vorteilhafterweise zur Unterstützung eines Nutzers dienen, insbesondere eines medizinischen Bedienpersonals.
  • Gemäß einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann die Deformationsvorschrift im Schritt f.4) entlang einer Längserstreckungsrichtung des medizinischen Objekts und/oder der zumindest einen anatomischen Struktur ermittelt werden. Insbesondere bei einer Ausbildung des medizinischen Objekts als Katheter und/oder Führungsdraht kann eine Deformation der zumindest einen anatomischen Struktur, in der oder an der das medizinische Objekt angeordnet ist, im Wesentlichen entlang der Längserstreckungsrichtung, insbesondere entlang einer Längsachse oder einer Zentrallinie, des medizinischen Objekts und/oder der zumindest einen anatomischen Struktur auftreten.
  • Insbesondere kann die Längserstreckungsrichtung des medizinischen Objekts und/oder der zumindest einen anatomischen Struktur gekrümmt verlaufen. Dabei kann die Deformation der zumindest einen anatomischen Struktur beispielsweise eine Stauchung und/oder Streckung, insbesondere entlang der Längserstreckungsrichtung, umfassen. Hierdurch kann es zu einer Abweichung zwischen dem segmentierten 3D-Bilddatensatz, welcher auf dem präoperativen 3D-Bilddatensatz basiert, und den, insbesondere intraoperativ aufgenommenen, Bilddaten kommen. Vorteilhafterweise kann die Deformationsvorschrift derart ermittelt werden, dass durch das Anwenden der Deformationsvorschrift auf den segmentierten 3D-Bilddatensatz im Schritt f.5) die Deformation der zumindest einen anatomischen Struktur, zumindest entlang der Längserstreckungsrichtung des intraoperativ darin oder daran angeordneten medizinischen Objekts und/oder entlang der Längserstreckungsrichtung der zumindest einen anatomischen Struktur, insbesondere eindimensional, korrigiert wird.
  • Dabei kann die Deformationsvorschrift durch eine Eingabe des Nutzers mittels der Eingabeeinheit vorteilhafterweise derart anpassbar sein, dass eine Wirkung der Deformationsvorschrift entlang der Längserstreckungsrichtung bei Anwendung auf den segmentierten 3D-Bilddatensatz durch die Eingabe linear und/oder nichtlinear anpassbar ist. Insbesondere kann dabei die Stauchung und/oder Streckung der Deformation des segmentierten 3D-Bilddatensatzes entlang der Längserstreckungsrichtung basierend auf der Eingabe des Nutzers anpassbar sein. Alternativ oder zusätzlich kann die Deformationsvorschrift zur Korrektur der Deformation der zumindest einen anatomischen Struktur eine Rotationsvorschrift zur Rotation zumindest eines Teils des segmentierten 3D-Bilddatensatzes um die Längserstreckungsrichtung des medizinischen Objekts und/oder der zumindest einen anatomischen Struktur, beispielsweise um die Zentrallinie, herum aufweisen. Dabei kann die Rotationsvorschrift vorteilhafterweise durch eine weitere Eingabe des Nutzers mittels der Eingabeeinheit anpassbar sein.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann das Verfahren beginnend ab Schritt f.2) zur Erzeugung des korrigierten Überlagerungsdatensatzes bis zum Eintreten einer Abbruchbedingung wiederholt ausgeführt werden. Dabei kann der korrigierte Überlagerungsdatensatz als der Überlagerungsdatensatz in Schritt f.2) bereitgestellt werden.
  • Ferner kann die Abbruchbedingung vorteilhafterweise auf einem Schwellwert, beispielsweise einem Konfidenzwert der Registrierung in Schritt f.1) und/oder der Deformationskorrektur in Schritt f.5) und/oder auf einem Bildqualitätswert hinsichtlich der in Schritt f.3) bestimmten Abweichung, und/oder einer maximalen Anzahl von Wiederholungen basieren. Alternativ oder zusätzlich kann der Konfidenzwert und/oder der Bildqualitätswert mittels der Eingabeeinheit von einem Nutzer eingebbar sein.
  • Vorteilhafterweise kann hierdurch eine besonders präzise und gleichzeitig intuitive Deformationskorrektur bei der Erzeugung des korrigierten Überlagerungsdatensatzes ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann der segmentierte 3D-Bilddatensatz ein deformierbares Modell der zumindest einen anatomischen Struktur aufweisend erzeugt werden. Dabei kann die Deformationsvorschrift in Schritt f.5) auf das deformierbare Modell angewendet werden.
  • Dabei kann das deformierbare Modell beispielsweise als Volumennetzmodell (engl. volume mesh model) ausgebildet sein. Alternativ oder zusätzlich kann das deformierbare Modell beispielsweise eine Zentrallinie und/oder eine Querschnittsinformation, insbesondere einen Radius und/oder eine Querschnittsfläche, der zumindest einen anatomischen Struktur aufweisen. Vorteilhafterweise kann eine Oberfläche und/oder Grenzfläche und/oder charakteristische Struktur der zumindest einen anatomischen Struktur in dem deformierbaren Modell abgebildet werden. Hierfür kann Schritt b) vorteilhafterweise zusätzlich ein Anpassen des deformierbaren Modells an die zumindest eine anatomische Struktur umfassen, beispielsweise basierend auf Bildwerten des präoperativen und/oder segmentierten 3D-Bilddatensatzes. Ferner kann die im Schritt f.5) bestimmte Deformationsvorschrift vorteilhafterweise derart auf das deformierbare Modell angewendet werden, dass dieses rigide und/oder nicht-rigide deformiert wird. Vorteilhafterweise kann der segmentierte 3D-Bilddatensatz in Abhängigkeit des deformierbaren Modells rigide und/oder nicht-rigide deformierbar sein. Insbesondere können Teilvolumeneffekte in den Bildpunkten des segmentierten 3D-Bilddatensatzes durch die Anwendung der Deformationsvorschrift auf das deformierbare Modell und die nachgelagerte Deformation des segmentierten 3D-Bilddatensatzes in Abhängigkeit des deformierbaren Modells verringert werden. Dabei kann der korrigierte 3D-Bilddatensatz im Schritt f.5) vorteilhafterweise durch eine Neurasterung nach Anwendung der Deformationsvorschrift erzeugt werden. Ferner kann die Deformation der zumindest einen anatomischen Struktur durch das darin oder daran angeordnete medizinische Objekt bei der Anwendung der Deformationskorrektur auf das deformierbare Modell besonders präzise berücksichtigt werden. Insbesondere kann das deformierbare Modell zumindest eine Information zu einer Deformierbarkeit und/oder einem physiologischen Parameter der zumindest einen anatomischen Struktur umfassen. Folglich können der segmentierte 3D-Bilddatensatz und die graphische Darstellung des Überlagerungsdatensatzes deformationskorrigiert werden.
  • Durch die Anwendung der Deformationsvorschrift auf das deformierbare Modell kann vorteilhafterweise ein korrigiertes Modell im Schritt f.5) erzeugt werden. Dabei kann die Abweichung zwischen den Bilddaten und dem segmentierten 3D-Bilddatensatz in der graphischen Darstellung des Überlagerungsdatensatzes vorteilhafterweise mittelbar zwischen den Bilddaten und dem deformierbaren Modell bestimmt werden. Hierfür kann insbesondere eine mit der in der graphischen Darstellung festgelegten Position der Abweichung korrespondierende Position an dem deformierbaren Modell ermittelt werden. Ferner kann eine Veränderung der Position der Abweichung durch Anwendung der Deformationsvorschrift auf das deformierbare Modell durch die Veränderung der damit korrespondierenden Position an dem deformierbaren Modell simuliert und/oder vorbestimmt werden.
  • Durch die Anpassung des deformierbaren Modells an die zumindest eine anatomische Struktur in Schritt b) kann vorteilhafterweise sichergestellt werden, dass die zumindest eine anatomische Struktur auch bei der Anwendung der Deformationsvorschrift auf den segmentierten 3D-Bilddatensatz, insbesondere das deformierbare Modell, erhalten bleibt. Dabei kann zur Ermittlung der Deformationsvorschrift im Schritt f.4) ferner eine, insbesondere anatomische, Randbedingung bezüglich der Deformierbarkeit der zumindest einen anatomischen Struktur vorgegeben sein.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann der Schritt e) ferner eine Anpassung des deformierbaren Modells in dem segmentierten 3D-Bilddatensatz umfassen. Hierdurch kann bereits für die Registrierung des segmentierten 3D-Bilddatensatzes mit den Bilddaten, insbesondere basierend auf geometrischen und/oder anatomischen Bildmerkmalen der jeweiligen Ausgangsdaten, die Deformation des deformierbaren Modells der zumindest einen anatomischen Struktur berücksichtigt werden. Dabei kann, insbesondere zusätzlich zur merkmalsbasierten Registrierung, eine Deformation der zumindest einen anatomischen Struktur durch das darin oder daran angeordnete medizinische Objekt vorteilhaft berücksichtigt werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann das Erzeugen des segmentierten 3D-Bilddatensatzes eine Annotation von zumindest einer Referenzlandmarke an der zumindest einen anatomischen Struktur in dem segmentierten 3D-Bilddatensatz umfassen. Die zumindest eine Referenzlandmarke kann insbesondere eine anatomische Referenzlandmarke sein. Ferner kann die zumindest eine Referenzlandmarke eine räumliche Position in dem segmentierten 3D-Bilddatensatz bezüglich der zumindest einen anatomischen Struktur markieren. Vorteilhafterweise kann die zumindest eine Referenzlandmarke eine Position einer anatomischen Charakteristik, beispielsweise ein Ostium und/oder eine Bifurkation, der zumindest einen anatomischen Struktur markieren. Die Annotation der zumindest einen Referenzlandmarke kann vorteilhafterweise manuell, beispielsweise durch eine Eingabe eines Nutzers mittels einer Eingabeeinheit, und/oder halbautomatisch und/oder automatisch erfolgen. Insbesondere können annotierte Referenzlandmarken zu dem segmentierten 3D-Bilddatensatz empfangen werden. Alternativ oder zusätzlich kann die zumindest eine Referenzlandmarke anhand einer Form, insbesondere einer Kontur, und/oder einem Bildkontrastwert, insbesondere einem Kontrastverlauf, und/oder einem Bildintensitätswert, insbesondere korrespondierend mit einem Kontrastmittel, und/oder einer Markerstruktur, insbesondere an der zumindest einen anatomischen Struktur, identifiziert und annotiert werden. Eine halbautomatische und/oder automatische Annotation der zumindest einen Referenzlandmarke kann beispielsweise durch Anwenden eines Algorithmus zur Mustererkennung auf den segmentierten 3D-Bilddatensatz und/oder basierend auf einem Anatomieatlas erfolgen. Dabei kann die Annotation der zumindest einen Referenzlandmarke insbesondere ein Festlegen und/oder Markieren einer räumlichen Position an der zumindest einen anatomischen Struktur umfassen, wobei die zumindest eine anatomische Struktur an der jeweiligen räumlichen Position eine anatomische Charakteristik aufweist.
  • Insbesondere kann die graphische Darstellung des Überlagerungsdatensatzes eine graphische Darstellung der zumindest einen Referenzlandmarke aufweisen. Hierdurch kann vorteilhafterweise die Position der Abweichung besonders intuitiv erfassbar und festlegbar sein.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann Schritt f.3) ferner eine Ermittlung einer korrespondierenden zumindest einen Landmarke in dem segmentierten 3D-Bilddatensatz basierend auf der festgelegten Position der Abweichung umfassen.
  • Dabei kann die korrespondierende zumindest eine Landmarke vorteilhafterweise durch eine Rückprojektion, ausgehend von der Position der Abweichung in der graphischen Darstellung des Überlagerungsdatensatzes, zu dem segmentierten 3D-Bilddatensatz ermittelt werden. Dabei kann die korrespondierende zumindest eine Landmarke vorteilhafterweise manuell und/oder halbautomatisch und/oder automatisch ermittelt werden. Insbesondere kann die korrespondierende zumindest eine Landmarke eine anatomische Landmarke an der zumindest einen anatomischen Struktur sein, die hinsichtlich weiterer anatomischer Landmarken eine kürzeste räumliche Distanz zu einer Richtung der Rückprojektion ausgehend von der Position der Abweichung aufweist. Alternativ oder zusätzlich kann zur Ermittlung der korrespondierenden zumindest einen Landmarke ein Algorithmus zur Mustererkennung auf den segmentierten 3D-Bilddatensatz angewendet werden.
  • Ferner kann eine Deformation der korrespondierenden zumindest einen Landmarke in dem segmentierten 3D-Bilddatensatz bei der Ermittlung und/oder Anwendung der Deformationsvorschrift im Schritt f.4) respektive f.5) vorteilhaft berücksichtigt werden. Dabei kann die Korrespondenz zwischen der Position der Abweichung und der korrespondierenden zumindest einen Landmarke vorteilhafterweise als Randbedingung bei der Ermittlung der Deformationsvorschrift im Schritt f.4) berücksichtigt werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann wenigstens eine der zumindest einen Referenzlandmarke als die korrespondierende zumindest eine Landmarke ermittelt werden. Dabei kann vorteilhafterweise wenigstens eine der zumindest einen Referenzlandmarke als die korrespondierende zumindest eine Landmarke ermittelt werden, welche Referenzlandmarke die kürzeste räumliche Distanz zur Richtung der Rückprojektion ausgehend von der Position der Abweichung aufweist. Alternativ oder zusätzlich können mehrere der zumindest einen Referenzlandmarke als korrespondierende zumindest eine Landmarke ermittelt werden, beispielsweise dann, wenn mehrere Referenzlandmarken innerhalb einer vorgegebenen räumlichen Distanz zur Richtung der Rückprojektion in dem segmentierten 3D-Bilddatensatz angeordnet sind.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann der Schritt f.3) ferner eine Identifizierung von zumindest einer, insbesondere anatomischen, Landmarke (engl. landmark) in der graphischen Darstellung des Überlagerungsdatensatzes basierend auf der festgelegten Position der Abweichung umfassen. Dabei kann die korrespondierende zumindest eine Landmarke basierend auf der zumindest einen Landmarke ermittelt werden.
  • Dabei kann die Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes beispielsweise anhand einer Form, insbesondere einer Kontur, und/oder einem Bildkontrastwert, insbesondere einem Kontrastverlauf, und/oder einem Bildintensitätswert, insbesondere korrespondierend mit einem Kontrastmittel, und/oder einer Markerstruktur, insbesondere an dem medizinischen Objekt und/oder an der zumindest einen anatomischen Struktur, identifiziert werden. Alternativ oder zusätzlich kann die zumindest eine Landmarke eine graphische Darstellung der zumindest einen Referenzlandmarke aus dem segmentierten 3D-Bilddatensatz sein. Zudem kann die zumindest eine Landmarke der zumindest anatomischen Struktur vorteilhafterweise manuell und/oder automatisch und/oder halbautomatisch, insbesondere durch Annotation, basierend auf der Position der Abweichung in der graphischen Darstellung des Überlagerungsdatensatzes bestimmt werden. Beispielsweise kann die Position der Abweichung einen Bildpunkt kennzeichnen, der die Landmarke, insbesondere eine Abbildung der Landmarke, aufweist. Alternativ oder zusätzlich kann die Landmarke in einem Bildbereich der graphischen Darstellung des Überlagerungsdatensatzes um die Position der Abweichung herum identifiziert werden.
  • Vorteilhafterweise kann in Schritt f.4) die mit der zumindest einen Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes korrespondierende zumindest eine Landmarke in dem segmentierten 3D-Bilddatensatz ermittelt werden. Dabei kann die korrespondierende zumindest eine Landmarke vorteilhafterweise durch eine Rückprojektion, ausgehend von der zumindest einen Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes, zu dem segmentierten 3D-Bilddatensatz ermittelt werden. Sofern die zumindest eine Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes zumindest zwei Bildpunkte, insbesondere eine Kontur und/oder Fläche, umfasst, kann die damit korrespondierende zumindest eine Landmarke in dem segmentierten 3D-Bilddatensatz besonders zuverlässig ermittelt werden. Alternativ oder zusätzlich kann zur Ermittlung der korrespondierenden zumindest einen Landmarke ein Algorithmus zur Mustererkennung auf den segmentierten 3D-Bilddatensatz angewendet werden. Durch die Ermittlung der Korrespondenz zwischen der zumindest einen Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes und der damit korrespondierenden zumindest einen Landmarke in dem segmentierten 3D-Bilddatensatz kann vorteilhafterweise eine mit der im Schritt f.3) festgelegten Position der Abweichung korrespondierende Position in dem segmentierten 3D-Bilddatensatz ermittelt werden. Vorteilhafterweise weist die zumindest eine Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes eine zweidimensionale Positionierung auf, während die damit korrespondierende zumindest eine Landmarke in dem segmentierten 3D-Bilddatensatz eine dreidimensionale Positionierung aufweist.
  • Des Weiteren kann wenigstens eine der zumindest einen Referenzlandmarke als die korrespondierende zumindest eine Landmarke basierend auf der zumindest einen Landmarke ermittelt werden. Dies ist insbesondere dann vorteilhaft, wenn die zumindest eine Landmarke eine graphische Darstellung der zumindest einen Referenzlandmarke ist. In diesem Fall ist die Korrespondenz zwischen der graphischen Darstellung der zumindest einen Referenzlandmarke und der damit korrespondierenden zumindest einen Referenzlandmarke in dem segmentierten 3D-Bilddatensatz bekannt.
  • Ferner kann eine Deformation der korrespondierenden zumindest einen Landmarke in dem segmentierten 3D-Bilddatensatz bei der Ermittlung und/oder Anwendung der Deformationsvorschrift im Schritt f.4) respektive f.5) vorteilhaft berücksichtigt werden. Insbesondere kann die Deformationsvorschrift im Schritt f.4) derart ermittelt werden, dass die Abweichung zwischen der zumindest einen Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes und einer Projektion der damit korrespondierenden zumindest einen Landmarke des korrigierten 3D-Bilddatensatzes minimiert wird. Dabei kann die Korrespondenz zwischen der zumindest einen Landmarke und der damit korrespondierenden zumindest einen Landmarke vorteilhafterweise als Randbedingung bei der Ermittlung der Deformationsvorschrift im Schritt f.4) berücksichtigt werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann die Position der Abweichung eine Zielposition für die Ermittlung der Deformationsvorschrift in Schritt f.4) definieren. Dabei kann der segmentierte 3D-Bilddatensatz, insbesondere eine Abbildung des segmentierten 3D-Bilddatensatzes in dem Überlagerungsdatensatz, für das Erzeugen des korrigierten Überlagerungsdatensatzes in Schritt f.5) zumindest teilweise hin zur Zielposition deformiert werden. Dabei kann die Zielposition vorteilhafterweise basierend auf einem geometrischen und/oder anatomischen Merkmal der graphischen Darstellung des Überlagerungsdatensatzes festgelegt werden. Beispielsweise kann die Zielposition basierend auf einem Anteil der Bilddaten in der graphischen Darstellung des Überlagerungsdatensatzes festgelegt werden. Dabei kann die Zielposition vorteilhafterweise eine Position einer Kontur und/oder anatomischen Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes, insbesondere dem Anteil der Bilddaten, markieren. Vorteilhafterweise kann die Deformationsvorschrift derart basierend auf der Zielposition ermittelt werden, dass zumindest ein Teil, insbesondere ein Abschnitt, des segmentierten 3D-Bilddatensatzes beim Anwenden der Deformationsvorschrift deformiert wird. Insbesondere kann die zumindest eine Landmarke und/oder die korrespondierende zumindest eine Landmarke basierend auf der Zielposition ermittelt werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann die Deformationsvorschrift derart ermittelt werden, dass die zumindest eine Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes hin zur Zielposition deformiert wird. Hierdurch kann die Deformationskorrektur für einen Nutzer vorteilhafterweise direkt und intuitiv über eine graphische Darstellung des korrigierten Überlagerungsdatensatzes erfassbar sein.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann die Identifizierung der zumindest einen Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes und der damit korrespondierenden zumindest einen Landmarke in dem segmentierten 3D-Bilddatensatzes durch Anwenden einer trainierten Funktion auf Eingabedaten erfolgen. Dabei können die Eingabedaten auf der festgelegten Position der Abweichung, der graphischen Darstellung des Überlagerungsdatensatzes, dem segmentierten 3D-Bilddatensatz und den Bilddaten basieren. Ferner kann zumindest ein Parameter der trainierten Funktion auf einem Vergleich zumindest einer Trainingslandmarke mit zumindest einer Vergleichslandmarke und einem Vergleich der jeweils damit korrespondierenden zumindest einen Trainings- und Vergleichslandmarke basieren.
  • Die trainierte Funktion kann vorteilhafterweise durch ein Verfahren des Maschinenlernens trainiert sein. Insbesondere kann die trainierte Funktion ein neuronales Netzwerk, insbesondere ein faltendes neuronales Netzwerk (engl. convolutional neural network, CNN) bzw. ein Netzwerk umfassend eine Faltungsschicht (engl. convolutional layer) sein.
  • Die trainierte Funktion bildet Eingabedaten auf Ausgabedaten ab. Hierbei können die Ausgabedaten insbesondere weiterhin von einem oder mehreren Parametern der trainierten Funktion abhängen. Der eine oder die mehreren Parameter der trainierten Funktion können durch ein Training bestimmt und/oder angepasst werden. Das Bestimmen und/oder das Anpassen des einen oder der mehreren Parameter der trainierten Funktion kann insbesondere auf einem Paar aus Trainingseingabedaten und zugehörigen Trainingsausgabedaten basieren, wobei die trainierte Funktion zur Erzeugung von Trainingsabbildungsdaten auf die Trainingseingabedaten angewendet wird. Insbesondere können das Bestimmen und/oder das Anpassen auf einem Vergleich der Trainingsabbildungsdaten mit den Trainingsausgabedaten basieren. Im Allgemeinen wird auch eine trainierbare Funktion, das heißt eine Funktion mit noch nicht angepassten einen oder mehreren Parametern, als trainierte Funktion bezeichnet.
  • Andere Begriffe für trainierte Funktion sind trainierte Abbildungsvorschrift, Abbildungsvorschrift mit trainierten Parametern, Funktion mit trainierten Parametern, Algorithmus basierend auf künstlicher Intelligenz, Algorithmus des maschinellen Lernens. Ein Beispiel für eine trainierte Funktion ist ein künstliches neuronales Netzwerk, wobei die Kantengewichte des künstlichen neuronalen Netzwerks den Parametern der trainierten Funktion entsprechen. Anstatt des Begriffs „neuronales Netzwerk“ kann auch der Begriff „neuronales Netz“ verwendet werden. Insbesondere kann eine trainierte Funktion auch ein tiefes künstliches neuronales Netzwerk sein (engl. deep neural network, deep artificial neural network). Ein weiteres Beispiel für eine trainierte Funktion ist eine „Support Vector Machine“, weiterhin sind auch insbesondere andere Algorithmen des maschinellen Lernens als trainierte Funktion einsetzbar.
  • Die trainierte Funktion kann insbesondere mittels einer Rückpropagation trainiert sein. Zunächst können Trainingsabbildungsdaten durch Anwendung der trainierten Funktion auf Trainingseingabedaten bestimmt werden. Hiernach kann eine Abweichung zwischen den Trainingsabbildungsdaten und den Trainingsausgabedaten durch Anwendung einer Fehlerfunktion auf die Trainingsabbildungsdaten und die Trainingsausgabedaten ermittelt werden. Ferner kann zumindest ein Parameter, insbesondere eine Gewichtung, der trainierten Funktion, insbesondere des neuronalen Netzwerks, basierend auf einem Gradienten der Fehlerfunktion bezüglich des zumindest einen Parameters der trainierten Funktion iterativ angepasst werden. Hierdurch kann die Abweichung zwischen den Trainingsabbildungsdaten und den Trainingsausgabedaten während des Trainings der trainierten Funktion vorteilhafterweise minimiert werden.
  • Vorteilhafterweise weist die trainierte Funktion, insbesondere das neuronale Netzwerk, eine Eingabeschicht und eine Ausgabeschicht auf. Dabei kann die Eingabeschicht zum Empfangen von Eingabedaten ausgebildet sein. Ferner kann die Ausgabeschicht zum Bereitstellen von Abbildungsdaten ausgebildet sein. Dabei kann die Eingabeschicht und/oder die Ausgabeschicht jeweils mehrere Kanäle, insbesondere Neuronen, umfassen.
  • Vorzugsweise kann zumindest ein Parameter der trainierten Funktion auf einem Vergleich der zumindest einen Trainingslandmarke mit der zumindest einen Vergleichslandmarke und einem Vergleich der jeweils damit korrespondierenden zumindest einen Trainings- und Vergleichslandmarke basieren. Dabei können die zumindest eine Trainingslandmarke, die zumindest eine Vergleichslandmarke und die jeweils damit korrespondierende zumindest eine Trainings- und Vergleichslandmarke vorteilhafterweise als Teil eines vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer trainierten Funktion, welches im weiteren Verlauf der Beschreibung erläutert wird, bestimmt werden. Insbesondere kann die trainierte Funktion durch eine Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer trainierten Funktion bereitgestellt werden.
  • Dabei können die Eingabedaten der trainierten Funktion vorteilhafterweise auf der im Schritt f.3) festgelegten Position der Abweichung, der graphischen Darstellung des Überlagerungsdatensatzes, dem segmentierten 3D-Bilddatensatz und den Bilddaten basieren. Vorteilhafterweise kann die Identifizierung der zumindest einen Landmarke und der damit korrespondierenden zumindest einen Landmarke durch Anwenden der trainierten Funktion besonders zuverlässig und robust erfolgen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann das Festlegen der Position der Abweichung in Schritt f.3) durch eine Eingabe eines Nutzers mittels einer Eingabeeinheit erfolgen.
  • Dabei kann die Position der Abweichung durch die Eingabe eines Nutzers mittels einer Eingabeeinheit, beispielsweise einer Zeigeeinrichtung, insbesondere eine Computermaus und/oder einem Joystick, und/oder einen Eingabestift und/oder eine Tastatur, und/oder mittels Gestensteuerung festgelegt werden. Ferner kann die Eingabeeinheit in die Darstellungseinheit integriert sein, beispielsweise als kapazitives Eingabedisplay. Dabei kann der Nutzer vorteilhafterweise den Bildpunkt, der mit der Abweichung korrespondiert, in der graphischen Darstellung des Überlagerungsdatensatzes auswählen und/oder einen Bildbereich mehrere Bildpunkte umfassend markieren, wobei der Bildbereich zumindest teilweise die Abweichung aufweist. Insbesondere kann die Position der Abweichung, insbesondere basierend auf der Eingabe des Nutzers, empfangen werden. Das Empfangen der Position der Abweichung kann insbesondere ein Erfassen und/oder Auslesen eines computerlesbaren Datenspeichers und/oder ein Empfangen aus einer Datenspeichereinheit, beispielsweise einer Datenbank, umfassen.
  • Hierdurch kann ein besonders intuitives und nutzerorientiertes Festlegen der Position der Abweichung im Schritt f.3) ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann der Überlagerungsdatensatz eine Abstandsinformation zu der Abweichung zwischen dem segmentierten 3D-Bilddatensatz und den Bilddaten aufweisen. Ferner kann das Festlegen der Position der Abweichung in Schritt f.3) vorteilhafterweise zusätzlich basierend auf der Abstandsinformation erfolgen.
  • Dabei kann die Abstandsinformation beispielsweise ein, insbesondere zweidimensionales, Vektorfeld aufweisen, wobei die Abweichung zwischen dem segmentierten 3D-Bilddatensatz, insbesondere einer Projektion des segmentierten 3D-Bilddatensatzes, und den Bilddaten durch das Vektorfeld, insbesondere bildpunktweise, abgebildet wird. Dabei kann die Abstandsinformation beispielsweise eine Korrespondenz zwischen den Bildpunkten des segmentierten 3D-Bilddatensatzes, insbesondere der Projektion des segmentierten 3D-Bilddatensatzes, und den Bildpunkten der Bilddaten abbilden. Ferner kann die graphische Darstellung des Überlagerungsdatensatzes eine graphische Darstellung der Abstandsinformation, beispielsweise durch Anzeige einer Kennzeichnung (engl. label) und/oder eine, insbesondere gewichtete und/oder adaptive, Überlagerung des Überlagerungsdatensatzes mit der, insbesondere zweidimensionalen, Abstandsinformation.
  • Hierdurch kann eine besonders einfache Erfassung einer Abweichung zwischen dem segmentierten 3D-Bilddatensatz und den Bilddaten anhand der graphischen Darstellung des Überlagerungsdatensatzes ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann Schritt f.4) ein Bestimmen einer mit der festgelegten Position der Abweichung korrespondierenden Position in dem segmentierten 3D-Bilddatensatz mittels einer Rückprojektion umfassen.
  • Vorteilhafterweise kann die festgelegte Position der Abweichung in der graphischen Darstellung des Überlagerungsdatensatzes vorteilhafterweise zu dem segmentierten 3D-Bilddatensatz rückprojiziert werden. Dabei kann die Rückprojektionsrichtung vorteilhafterweise anti-parallel zur Projektionsrichtung zur Projektion des segmentierten 3D-Bilddatensatzes bei der Erzeugung des Überlagerungsdatensatzes verlaufen. Dabei kann die korrespondierende Position der Abweichung in dem segmentierten 3D-Bilddatensatz vorteilhafterweise auf einer Raumachse liegen, die parallel zur Rückprojektionsrichtung durch einen Fokuspunkt der Projektion verläuft. Sofern die Bilddaten eine zweidimensionale Projektionsabbildung des Untersuchungsbereichs aufweisen, kann der Fokuspunkt insbesondere dem Fokuspunkt der Projektionsabbildung, insbesondere einer Röntgenprojektion, entsprechen. Dabei kann die korrespondierende Position entlang der Rückprojektionsrichtung insbesondere als Schnittpunkt mit der zumindest einen anatomischen Struktur, die in dem segmentierten 3D-Bilddatensatz enthalten ist, ermittelt werden. Alternativ oder zusätzlich kann die korrespondierende Position entlang der Rückprojektionsrichtung als Schnittpunkt mit dem deformierbaren Modell der zumindest einen anatomischen Struktur ermittelt werden, beispielsweise einem Volumennetzmodell und/oder einer Zentrallinie.
  • Ferner kann die anhand der festgelegten Position der Abweichung bestimmte Rückprojektionsrichtung als Randbedingung zur Ermittlung der Deformationsvorschrift im Schritt f.4) berücksichtigt werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann die Position der Abweichung eine Zielposition definieren. Dabei kann die korrespondierende Position eine korrespondierende Zielposition in dem segmentierten 3D-Bilddatensatz definieren. Zudem kann die Deformationsvorschrift derart ermittelt werden, dass zumindest ein Teil des segmentierten 3D-Bilddatensatzes, insbesondere des deformierbaren Modells, hin zur korrespondierenden Zielposition deformiert wird.
  • Die korrespondierende Zielposition kann vorteilhafterweise eine räumliche Position in dem segmentierten 3D-Bilddatensatz definieren. Hierdurch kann eine besonders präzise und insbesondere anatomisch korrekte Deformationskorrektur ermöglicht werden. Ferner kann die Deformationsvorschrift derart ermittelt werden, dass die korrespondierende zumindest eine Landmarke hin zur korrespondierenden Zielposition deformiert wird. Ferner kann die Deformationsvorschrift vorteilhafterweise derart ermittelt werden, dass die korrespondierende zumindest eine Landmarke, insbesondere wenigstens eine der zumindest einen Referenzlandmarke, bei Anwenden der Deformationsvorschrift auf den segmentierten 3D-Bilddatensatz hin zur korrespondierenden Zielposition deformiert wird. Hierdurch wird auch die Landmarke in der graphischen Darstellung des Überlagerungsdatensatzes hin zur Zielposition deformiert.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann die Deformationsvorschrift in Schritt f.4) zusätzlich basierend auf einer Materialeigenschaft des medizinischen Objekts und/oder einem Betriebsparameter des medizinischen Objekts und/oder einer Form des medizinischen Objekts und/oder einem Gewebeparameter des Untersuchungsobjekts und/oder einem physiologischen Parameter des Untersuchungsobjekts ermittelt werden.
  • Sofern mehrere medizinische Objekte in dem Untersuchungsbereich angeordnet sind, der in den Bilddaten abgebildet ist, kann vorteilhafterweise zumindest der Betriebsparameter und/oder die Materialeigenschaft und/oder die Form des medizinischen Objekts bei der Ermittlung der Deformationsvorschrift berücksichtigt werden, das insbesondere räumlich am nächsten an der im Schritt f.3) festgelegten Position in den Bilddaten und folglich in der graphischen Darstellung des Überlagerungsdatensatzes abgebildet ist. Vorteilhafterweise kann die Deformationsvorschrift derart ermittelt werden, dass diese eine Deformation, insbesondere eine Stauchung und/oder Streckung, der zumindest einen anatomischen Struktur durch das darin oder daran angeordnete medizinische Objekt umfasst. Dabei kann die Materialeigenschaft des medizinischen Objekts beispielsweise eine Information zur Biegsamkeit und/oder Verwindbarkeit und/oder zu einer Oberflächenbeschaffenheit des medizinischen Objekts aufweisen. Ferner kann der Betriebsparameter des medizinischen Objekts beispielsweise eine Information zur Bewegungsrichtung und/oder räumlichen Position und/oder Bewegungsgeschwindigkeit zumindest eines Teils des medizinischen Objekts aufweisen. Der Gewebeparameter des Untersuchungsobjekts kann insbesondere eine Information zur Deformierbarkeit, insbesondere Elastizität, der zumindest einen anatomischen Struktur und/oder angrenzender Gewebe innerhalb des Untersuchungsbereichs aufweisen. Hierdurch können vorteilhafterweise Kalzifikationen in der zumindest einen anatomischen Struktur bei der Ermittlung der Deformationsvorschrift berücksichtigt werden. Ferner kann der physiologische Parameter des Untersuchungsobjekts beispielsweise eine Information zu einer Phase der Atmung und/oder des Herzschlags des Untersuchungsobjekts, insbesondere zum Zeitpunkt der Aufnahme der Bilddaten, aufweisen. Hierdurch kann eine verbesserte Ermittlung der Deformationsvorschrift zur Anpassung des segmentierten 3D-Bilddatensatzes an die Bilddaten ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann der korrigierte Überlagerungsdatensatz durch Anwenden einer weiteren trainierten Funktion auf weitere Eingabedaten erzeugt werden. Dabei können die weiteren Eingabedaten vorteilhafterweise auf der festgelegten Position der Abweichung, dem segmentierten 3D-Bilddatensatz und den Bilddaten basieren. Ferner kann zumindest ein Parameter der weiteren trainierten Funktion auf einem Vergleich eines korrigierten Trainingsüberlagerungsdatensatzes mit einem korrigierten Vergleichsüberlagerungsdatensatz basieren.
  • Die Vorteile und Eigenschaften der vorstehend beschriebenen weiteren trainierten Funktion entsprechen im Wesentlichen den Vorteilen und Eigenschaften der trainierten Funktion. Die in Bezug auf die trainierte Funktion erwähnten Merkmale, Vorteile oder alternativen Ausführungsformen können ebenso auch auf die weitere trainierte Funktion übertragen werden und umgekehrt.
  • Vorzugsweise kann zumindest ein Parameter der weiteren trainierten Funktion auf einem Vergleich des korrigierten Trainingsüberlagerungsdatensatzes mit dem korrigierten Vergleichsüberlagerungsdatensatz basieren. Dabei können der korrigierte Trainingsüberlagerungsdatensatz und der korrigierte Vergleichsüberlagerungsdatensatz vorteilhafterweise als Teil eines vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer weiteren trainierten Funktion, welches im weiteren Verlauf der Beschreibung erläutert wird, bestimmt werden. Insbesondere kann die weitere trainierte Funktion durch eine Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer weiteren trainierten Funktion bereitgestellt werden.
  • Hierdurch kann eine besonders intuitive und schnelle Deformationskorrektur ermöglicht werden.
  • Die Erfindung betrifft in einem zweiten Aspekt ein, insbesondere computerimplementiertes, Verfahren zum Bereitstellen einer trainierten Funktion. Dabei wird ein präoperativer 3D-Trainingsbilddatensatz von einem Untersuchungsbereich eines Untersuchungsobjekts in einem ersten Schritt t.1) empfangen. Ferner wird in einem zweiten Schritt t.2) ein segmentierter 3D-Trainingsbilddatensatz durch Segmentieren zumindest einer anatomischen Struktur in dem präoperativen 3D-Trainingsbilddatensatz erzeugt. Zudem werden, insbesondere intraoperative, Trainingsbilddaten von dem Untersuchungsbereich in einem dritten Schritt t.3) empfangen, wobei ein medizinisches Objekt in dem Untersuchungsbereich angeordnet ist. Des Weiteren wird der segmentierte 3D-Trainingsbilddatensatz mit den Trainingsbilddaten in einem vierten Schritt t.4) registriert. Hiernach wird ein Trainingsüberlagerungsdatensatz basierend auf dem segmentierten 3D-Trainingsbilddatensatz und den Trainingsbilddaten in einem fünften Schritt t.5) erzeugt. Ferner wird eine graphische Trainingsdarstellung des Trainingsüberlagerungsdatensatzes in einem sechsten Schritt t.6) erzeugt. Dabei wird eine Trainingsposition einer Abweichung zwischen den Trainingsbilddaten und dem segmentierten 3D-Trainingsbilddatensatz in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes in einem siebten Schritt t.7) festgelegt. Ferner wird zumindest eine Vergleichslandmarke in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes basierend auf der festgelegten Trainingsposition der Abweichung in einem achten Schritt t.8) identifiziert. Zudem wird eine mit der zumindest einen Vergleichslandmarke korrespondierende zumindest eine Vergleichslandmarke in dem segmentierten 3D-Trainingsbilddatensatz in einem neunten Schritt t.9) ermittelt. Des Weiteren wird zumindest eine Trainingslandmarke in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes und eine damit korrespondierende zumindest eine Trainingslandmarke in dem segmentierten 3D-Trainingsbilddatensatz durch Anwenden der trainierten Funktion auf Eingabedaten in einem zehnten Schritt t.10) identifiziert. Dabei basieren die Eingabedaten der trainierten Funktion auf der festgelegten Trainingsposition der Abweichung, der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes, dem segmentierten 3D-Trainingsbilddatensatz und den Trainingsbilddaten. Hiernach wird in einem elften Schritt t.11) zumindest ein Parameter der trainierten Funktion basierend auf einem Vergleich der zumindest einen Trainingslandmarke mit der zumindest einen Vergleichslandmarke und einem Vergleich der jeweils damit korrespondierenden Trainings- und Vergleichslandmarke angepasst. Ferner wird in einem zwölften Schritt t.12) die trainierte Funktion bereitgestellt.
  • Das Empfangen des präoperativen 3D-Trainingsbilddatensatzes und/oder der Trainingsbilddaten von dem Untersuchungsbereich des Untersuchungsobjekts kann insbesondere ein Erfassen und/oder Auslesen eines computerlesbaren Datenspeichers und/oder ein Empfangen aus einer Datenspeichereinheit, beispielsweise einer Datenbank, umfassen. Ferner kann der präoperative 3D-Trainingsbilddatensatz und/oder können die Trainingsbilddaten von einer Bereitstellungseinheit eines medizinischen Bildgebungsgeräts bereitgestellt werden.
  • Der präoperative 3D-Trainingsbilddatensatz kann insbesondere alle Eigenschaften des präoperativen 3D-Bilddatensatzes aufweisen, die in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurden und umgekehrt. Ferner können die Trainingsbilddaten alle Eigenschaften der Bilddaten aufweisen, die in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurden und umgekehrt. Insbesondere kann der präoperative 3D-Trainingsbilddatensatz ein präoperativer 3D-Bilddatensatz sein. Analog dazu können die Trainingsbilddaten Bilddaten sein. Ferner kann der präoperative 3D-Trainingsbilddatensatz und/oder können die Trainingsbilddaten simuliert werden.
  • Vorteilhafterweise kann das medizinische Objekt, beispielsweise ein Führungsdraht und/oder ein Katheter und/oder ein Endoskop und/oder ein Laparoskop und/oder ein Implantat, insbesondere ein Stent, welches in dem Untersuchungsbereich des Untersuchungsobjekts angeordnet ist, in dem zumindest einen Trainingsröntgenbild abgebildet sein.
  • Das hierbei beschriebene medizinische Objekt, das in den Trainingsbilddaten abgebildet ist, kann dabei gleichartig zu oder verschieden von dem in den Bilddaten abgebildeten medizinischen Objekt sein, welches in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurde und umgekehrt. Analog dazu kann das Untersuchungsobjekt und/oder der Untersuchungsbereich, in dem das medizinische Objekt angeordnet ist und der in dem präoperativen 3D-Trainingsbilddatensatz und/oder den Trainingsbilddaten abgebildet ist, gleich oder verschieden zu dem Untersuchungsobjekt und/oder Untersuchungsbereich sein, welches in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurde und umgekehrt.
  • Der segmentierte 3D-Trainingsbilddatensatz kann analog zum Erzeugen des segmentierten 3D-Bilddatensatzes in Schritt b) des vorgeschlagenen Verfahrens zur Deformationskorrektur erzeugt werden. Der segmentierte 3D-Trainingsbilddatensatz kann dabei insbesondere alle Eigenschaften des segmentierten 3D-Bilddatensatzes aufweisen, die in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurden und umgekehrt.
  • Vorteilhafterweise können die Schritte t.4) bis t.7) jeweils analog zu den Schritten e) bis f.3) des vorgeschlagenen Verfahrens zur Deformationskorrektur erfolgen.
  • Ferner kann die Vergleichslandmarke in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes beispielsweise anhand einer Form, insbesondere einer Kontur, und/oder einem Bildkontrastwert, insbesondere einem Kontrastverlauf, und/oder einem Bildintensitätswert, insbesondere korrespondierend mit einem Kontrastmittel, und/oder einer Markerstruktur, insbesondere an dem medizinischen Objekt und/oder an der zumindest einen anatomischen Struktur, identifiziert werden. Dabei kann die Vergleichslandmarke der zumindest anatomischen Struktur vorteilhafterweise automatisch und/oder halbautomatisch, insbesondere durch Annotation, basierend auf der Trainingsposition der Abweichung in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes bestimmt werden. Beispielsweise kann die Trainingsposition der Abweichung einen Bildpunkt kennzeichnen, der die Vergleichslandmarke, insbesondere eine Abbildung der Vergleichslandmarke, aufweist. Alternativ oder zusätzlich kann die Vergleichslandmarke in einem Bildbereich der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes um die Trainingsposition der Abweichung herum identifiziert werden.
  • Vorteilhafterweise kann in Schritt t.9) eine mit der zumindest einen Vergleichslandmarke in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes korrespondierende zumindest eine Vergleichslandmarke in dem segmentierten 3D-Trainingsbilddatensatz ermittelt werden. Dabei kann die korrespondierende zumindest eine Vergleichslandmarke vorteilhafterweise durch eine Rückprojektion, ausgehend von der zumindest einen Vergleichslandmarke in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes, zu dem segmentierten 3D-Trainingsbilddatensatz ermittelt werden. Sofern die zumindest eine Vergleichslandmarke in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes zumindest zwei Bildpunkte, insbesondere eine Kontur und/oder Fläche, umfasst, kann die damit korrespondierende zumindest eine Vergleichslandmarke in dem segmentierten 3D-Trainingsbilddatensatz besonders zuverlässig ermittelt werden. Alternativ oder zusätzlich kann zur Ermittlung der korrespondierenden zumindest einen Vergleichslandmarke ein Algorithmus zur Mustererkennung auf den segmentierten 3D-Trainingsbilddatensatz angewendet werden.
  • Durch Anwenden der trainierten Funktion auf die Eingabedaten, welche auf der festgelegten Trainingsposition der Abweichung, der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes, dem segmentierten 3D-Trainingsbilddatensatz und den Trainingsbilddaten basieren, kann vorteilhafterweise die zumindest eine Trainingslandmarke in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes und die damit korrespondierende zumindest eine Trainingslandmarke in dem segmentierten 3D-Trainingsbilddatensatz identifiziert werden. Dabei kann zumindest ein Parameter der trainierten Funktion basierend auf einem Vergleich der zumindest einen Trainingslandmarke mit der zumindest einen Vergleichslandmarke und einem Vergleich der jeweils damit korrespondierenden zumindest einen Trainings- und Vergleichslandmarke im Schritt t.11) angepasst werden.
  • Das Bereitstellen der trainierten Funktion im Schritt t.12) kann insbesondere ein Speichern auf einem computerlesbaren Speichermedium und/oder ein Übertragen an eine Bereitstellungseinheit umfassen.
  • Vorteilhafterweise kann mit dem hier vorgeschlagenen Verfahren eine trainierte Funktion bereitgestellt werden, die in einer Ausführungsform des Verfahrens zur Deformationskorrektur verwendet werden kann.
  • Die Erfindung betrifft in einem dritten Aspekt ein, insbesondere computerimplementiertes, Verfahren zum Bereitstellen einer weiteren trainierten Funktion. Dabei wird in einem ersten Schritt tr.1) ein präoperativer 3D-Trainingsbilddatensatz von einem Untersuchungsbereich eines Untersuchungsobjekts empfangen. Ferner wird in einem zweiten Schritt tr.2) ein segmentierter 3D-Trainingsbilddatensatz durch Segmentierten zumindest einer anatomischen Struktur in dem präoperativen 3D-Trainingsbilddatensatz erzeugt. Zudem werden, insbesondere intraoperative, Trainingsbilddaten von dem Untersuchungsbereich in einem dritten Schritt tr.3) empfangen, wobei ein medizinisches Objekt in dem Untersuchungsbereich angeordnet ist. Zudem wird in einem vierten Schritt tr.4) eine Abbildung des medizinischen Objekts in den Trainingsbilddaten identifiziert. Ferner wird in einem fünften Schritt tr.5) der segmentierte 3D-Trainingsbilddatensatz mit den Trainingsbilddaten registriert. Dabei wird in einem sechsten Schritt tr.6) ein Trainingsüberlagerungsdatensatz basierend auf dem segmentierten 3D-Trainingsbilddatensatz und den Trainingsbilddaten erzeugt. Ferner wird in einem siebten Schritt tr.7) eine graphische Trainingsdarstellung des Trainingsüberlagerungsdatensatzes erzeugt. Hiernach wird in einem achten Schritt tr.8) eine Trainingsposition einer Abweichung zwischen den Trainingsbilddaten und dem segmentierten 3D-Trainingsbilddatensatz in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes festgelegt. Zudem wird in einem neunten Schritt tr.9) eine Trainingsdeformationsvorschrift basierend auf der festgelegten Trainingsposition der Abweichung und der identifizierten Abbildung des medizinischen Objekts derart ermittelt, dass die Abweichung zwischen den Trainingsbilddaten und dem segmentierten 3D-Trainigsbilddatensatz verringert wird. Dabei wird in einem zehnten Schritt tr.10) ein korrigierter Vergleichsüberlagerungsdatensatz durch Anwenden der Trainingsdeformationsvorschrift auf den segmentierten 3D-Trainingsbilddatensatz erzeugt. Zudem wird in einem elften Schritt tr.11) ein korrigierter Trainingsüberlagerungsdatensatz durch Anwenden der weiteren trainierten Funktion auf weitere Eingabedaten erzeugt. Dabei basieren die weiteren Eingabedaten der weiteren trainierten Funktion auf der festgelegten Trainingsposition der Abweichung, dem segmentierten 3D-Trainingsbilddatensatz und den Trainingsbilddaten. Ferner wird in einem zwölften Schritt tr.12) zumindest ein Parameter der weiteren trainierten Funktion basierend auf einem Vergleich zwischen dem korrigierten Trainingsüberlagerungsdatensatz und dem korrigierten Vergleichsüberlagerungsdatensatz angepasst. Hiernach wird die weitere trainierte Funktion in einem dreizehnten Schritt tr.13) bereitgestellt.
  • Das Empfangen des präoperativen 3D-Trainingsbilddatensatzes und/oder der Trainingsbilddaten von dem Untersuchungsbereich des Untersuchungsobjekts kann insbesondere ein Erfassen und/oder Auslesen eines computerlesbaren Datenspeichers und/oder ein Empfangen aus einer Datenspeichereinheit, beispielsweise einer Datenbank, umfassen. Ferner kann der präoperative 3D-Trainingsbilddatensatz und/oder können die Trainingsbilddaten von einer Bereitstellungseinheit eines medizinischen Bildgebungsgeräts bereitgestellt werden.
  • Der präoperative 3D-Trainingsbilddatensatz kann insbesondere alle Eigenschaften des präoperativen 3D-Bilddatensatzes aufweisen, die in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurden und umgekehrt. Ferner können die Trainingsbilddaten alle Eigenschaften der Bilddaten aufweisen, die in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurden und umgekehrt. Insbesondere kann der präoperative 3D-Trainingsbilddatensatz ein präoperativer 3D-Bilddatensatz sein. Analog dazu können die Trainingsbilddaten Bilddaten sein. Ferner kann der präoperative 3D-Trainingsbilddatensatz und/oder können die Trainingsbilddaten simuliert werden.
  • Vorteilhafterweise kann das medizinische Objekt, beispielsweise ein Führungsdraht und/oder ein Katheter und/oder ein Endoskop und/oder ein Laparoskop und/oder ein Implantat, insbesondere ein Stent, welches in dem Untersuchungsbereich des Untersuchungsobjekts angeordnet ist, in dem zumindest einen Trainingsröntgenbild abgebildet sein.
  • Das hierbei beschriebene medizinische Objekt, das in den Trainingsbilddaten abgebildet ist, kann dabei gleichartig zu oder verschieden von dem in den Bilddaten abgebildeten medizinischen Objekt sein, welches in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurde und umgekehrt. Analog dazu kann das Untersuchungsobjekt und/oder der Untersuchungsbereich, in dem das medizinische Objekt angeordnet ist und der in dem präoperativen 3D-Trainingsbilddatensatz und/oder den Trainingsbilddaten abgebildet ist, gleich oder verschieden zu dem Untersuchungsobjekt und/oder Untersuchungsbereich sein, welches in Bezug zum Verfahren zur Deformationskorrektur beschrieben wurde und umgekehrt.
  • Vorteilhafterweise können die Schritte tr.2) und tr.4) bis tr.10) jeweils analog zu den Schritten b) und d) bis f.5) des vorgeschlagenen Verfahrens zur Deformationskorrektur erfolgen.
  • Durch Anwenden der weiteren trainierten Funktion auf die Eingabedaten, welche auf der festgelegten Trainingsposition der Abweichung, dem segmentierten 3D-Trainingsbilddatensatz und den Trainingsbilddaten basieren, kann vorteilhafterweise der korrigierte Trainingsüberlagerungsdatensatz erzeugt werden. Dabei kann zumindest ein Parameter der weiteren trainierten Funktion basierend auf einem Vergleich zwischen dem korrigierten Trainingsüberlagerungsdatensatz und dem korrigierten Vergleichsüberlagerungsdatensatz im Schritt tr.12) angepasst werden. Dabei kann der Vergleich insbesondere bildpunktweise erfolgen. Das Bereitstellen der weiteren trainierten Funktion im Schritt tr.13) kann insbesondere ein Speichern auf einem computerlesbaren Speichermedium und/oder ein Übertragen an eine Bereitstellungseinheit umfassen.
  • Vorteilhafterweise kann mit dem hier vorgeschlagenen Verfahren eine weitere trainierte Funktion bereitgestellt werden, die in einer Ausführungsform des Verfahrens zur Deformationskorrektur verwendet werden kann.
  • Die Erfindung betrifft in einem vierten Aspekt eine Trainingseinheit die dazu ausgebildet ist, das zuvor beschriebene erfindungsgemäße Verfahren zum Bereitstellen einer trainierten Funktion und/oder zum Bereitstellen einer weiteren trainierten Funktion und seine jeweiligen Aspekte auszuführen. Die Trainingseinheit umfasst vorteilhafterweise eine Trainingsschnittstelle und eine Trainingsrecheneinheit. Die Trainingseinheit ist dazu ausgebildet, diese Verfahren und ihre Aspekte auszuführen, indem die Trainingsschnittstelle und die Trainingsrecheneinheit ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • In einer vorteilhaften Ausführungsform der vorgeschlagenen Trainingseinheit kann die Trainingsschnittstelle zur Ausführung der Schritte t.1), t.3) und/oder t.12) ausgebildet sein, die in Bezug zum computerimplementierten Verfahren zum Bereitstellen einer trainierten Funktion beschrieben wurden. Ferner kann die Trainingsrecheneinheit zur Ausführung der Schritte t.2) und t.4) bis t.11) ausgebildet sein, die in Bezug zum computerimplementierten Verfahren zum Bereitstellen einer trainierten Funktion beschrieben wurden.
  • In einer weiteren vorteilhaften Ausführungsform der vorgeschlagenen Trainingseinheit kann die Trainingsschnittstelle zur Ausführung der Schritte tr.1), tr.3) und/oder tr.12) ausgebildet sein, die in Bezug zum computerimplementierten Verfahren zum Bereitstellen einer weiteren trainierten Funktion beschrieben wurden. Ferner kann die Trainingsrecheneinheit zur Ausführung der Schritte tr.2) und tr.4) bis tr.11) ausgebildet sein, die in Bezug zum computerimplementierten Verfahren zum Bereitstellen einer weiteren trainierten Funktion beschrieben wurden.
  • Die Vorteile der vorgeschlagenen Trainingseinheit entsprechen im Wesentlichen den Vorteilen des vorgeschlagenen Verfahrens zum Bereitstellen einer trainierten Funktion und/oder zum Bereitstellen einer weiteren trainierten Funktion. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen können ebenso auch auf die anderen beanspruchten Gegenstände übertragen werden und umgekehrt.
  • Die Erfindung betrifft in einem fünften Aspekt ein medizinisches Bildgebungsgerät umfassend eine Bereitstellungseinheit. Dabei ist das medizinische Bildgebungsgerät, insbesondere die Bereitstellungseinheit, zur Ausführung eines vorgeschlagenen Verfahrens zur Deformationskorrektur ausgebildet. Ferner ist das medizinische Bildgebungsgerät zur Aufnahme der Bilddaten von dem Untersuchungsbereich des Untersuchungsobjekts ausgebildet. Des Weiteren kann das medizinische Bildgebungsgerät zur Aufnahme und/oder zum Empfangen des präoperativen 3D-Bilddatensatzes von dem Untersuchungsbereich des Untersuchungsobjekts ausgebildet sein.
  • Das medizinische Bildgebungsgerät kann beispielsweise als medizinisches Röntgengerät, insbesondere C-Bogen-Röntgengerät, und/oder Magnetresonanztomographieanlage (MRT) und/oder Computertomographieanlage (CT) und/oder Sonographiegerät und/oder Positronenemissionstomographieanlage (PET) ausgebildet sein.
  • Die Vorteile des vorgeschlagenen medizinischen Bildgebungsgeräts entsprechen im Wesentlichen den Vorteilen des vorgeschlagenen Verfahrens zur Deformationskorrektur. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen können ebenso auch auf die anderen beanspruchten Gegenstände übertragen werden und umgekehrt.
  • Die Erfindung betrifft in einem sechsten Aspekt ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher einer Bereitstellungseinheit ladbar ist, mit Programmabschnitten, um alle Schritte des vorgeschlagenen Verfahrens zur Deformationskorrektur auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher einer Trainingseinheit ladbar ist, mit Programmabschnitten, um alle Schritte des vorgeschlagenen Verfahrens zum Bereitstellen einer trainierten Funktion und/oder zum Bereitstellen einer weiteren trainierten Funktion und seiner jeweiligen Aspekte auszuführen, wenn die Programmabschnitte von der Trainingseinheit ausgeführt werden.
  • Die Erfindung betrifft in einem siebten Aspekt ein computerlesbares Speichermedium, auf welchem von einer Bereitstellungseinheit lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zur Deformationskorrektur auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit ausgeführt werden; und/oder auf welchem von einer Trainingseinheit lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen einer trainierten Funktion und/oder zum Bereitstellen einer weiteren trainierten Funktion und seiner jeweiligen Aspekte auszuführen, wenn die Programmabschnitte von der Trainingseinheit ausgeführt werden.
  • Die Erfindung betrifft in einem achten Aspekt ein Computerprogramm oder computerlesbares Speichermedium, umfassend eine trainierte Funktion bereitgestellt durch ein vorgeschlagenes Verfahren oder eines seiner Aspekte.
  • Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Bereitstellungseinheiten und/oder Trainingseinheiten auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile wie z.B. eine Dokumentation und/oder zusätzliche Komponenten, sowie Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher beschrieben. In unterschiedlichen Figuren werden für gleiche Merkmale die gleichen Bezugszeichen verwendet. Es zeigen
    • 1 bis 5 und 7 schematische Darstellungen verschiedener Ausführungsformen eines vorgeschlagenen Verfahrens zur Deformationskorrektur,
    • 6 eine schematische Darstellung eines vorgeschlagenen Verfahrens zum Bereitstellen einer trainierten Funktion,
    • 8 eine schematische Darstellung eines vorgeschlagenen Verfahrens zum Bereitstellen einer weiteren trainierten Funktion,
    • 9 eine schematische Darstellung einer Bereitstellungseinheit,
    • 10 eine schematische Darstellung einer Trainingseinheit,
    • 11 und 13 schematische Darstellungen verschiedener Ausführungsformen zur Erzeugung eines korrigierten Überlagerungsdatensatzes,
    • 12 und 14 schematische Darstellungen verschiedener Ausführungsformen zur Identifizierung einer korrespondierenden Position,
    • 15 eine schematische Darstellung eines medizinischen C-Bogen-Röntgengeräts.
  • In 1 ist eine vorteilhafte Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur schematisch dargestellt. Dabei kann in einem ersten Schritt a) ein präoperativer 3D-Bilddatensatz preBD von einem Untersuchungsbereich eines Untersuchungsobjekts, welcher insbesondere präoperativ mittels eines ersten medizinischen Bildgebungsgeräts aufgenommen ist, empfangen werden REC-preBD. Ferner kann in einem zweiten Schritt b) ein segmentierter 3D-Bilddatensatz segBD durch Segmentieren zumindest einer anatomischen Struktur in dem präoperativen 3D-Bilddatensatz preBD erzeugt werden DET-segBD. Des Weiteren können in einem dritten Schritt c) Bilddaten intraBD, insbesondere intraoperativ, von dem Untersuchungsbereich aufgenommen werden ACQ-intraBD, wobei ein medizinisches Objekt in dem Untersuchungsbereich angeordnet ist. Ferner kann eine Abbildung des medizinischen Objekts in den Bilddaten intra-BD in einem vierten Schritt d) identifiziert werden ID-MO. Hiernach kann der segmentierte 3D-Bilddatensatz segBD mit den Bilddaten intraBD in einem fünften Schritt e) registriert werden REG-BD. Dabei kann ein registrierter segmentierter 3D-Bilddatensatz reg.segBD und/oder registrierte Bilddaten reg.intraBD bereitgestellt werden. Im Folgenden werden die registrierten Bilddaten reg.intraBD und der registrierte segmentierte 3D-Bilddatensatz reg.segBD als die Bilddaten intraBD und der segmentierte 3D-Bilddatensatz segBD bereitgestellt.
  • Zudem kann in einem sechsten Schritt f.1) ein Überlagerungsdatensatz OD basierend auf dem, insbesondere registrierten, segmentierten 3D-Bilddatensatz reg.segBD und den, insbesondere registrierten, Bilddaten reg.intraBD erzeugt werden DET-OD. Ferner kann eine graphische Darstellung des Überlagerungsdatensatzes gOD in einem siebten Schritt f.2) mittels einer Darstellungseinheit angezeigt werden. Hierbei kann in einem achten Schritt f.3) eine Position POS einer Abweichung zwischen den Bilddaten reg.intraBD und dem segmentierten 3D-Bilddatensatz reg.segBD in der graphischen Darstellung des Überlagerungsdatensatzes gOD festgelegt werden DET-POS. Des Weiteren kann in einem neunten Schritt f.4) eine Deformationsvorschrift DEF basierend auf der festgelegten Position der Abweichung POS und der identifizierten Abbildung des medizinischen Objekts derart ermittelt werden DET-DEF, dass die Abweichung zwischen den Bilddaten reg.intraBD und dem segmentierten 3D-Bilddatensatz reg.segBD verringert, insbesondere minimiert, wird. Hiernach kann ein korrigierter Überlagerungsdatensatz corrOD durch Anwenden der Deformationsvorschrift DEF auf den segmentierten 3D-Bilddatensatz reg.segBD erzeugt werden DET-corrOD. Ferner kann der korrigierte Überlagerungsdatensatz corrOD in einem zehnten Schritt f.6) bereitgestellt werden PROV-corrOD.
  • Dabei kann das Festlegen DET-POS der Position der Abweichung POS im Schritt f.3) vorteilhafterweise durch eine Eingabe eines Nutzers mittels einer Eingabeeinheit erfolgen.
  • Ferner kann der Überlagerungsdatensatz OD eine Abstandsinformation zu der Abweichung zwischen dem segmentierten 3D-Bilddatensatz reg.segBD und den Bilddaten reg.intraBD aufweisen. Dabei kann das Festlegen DET-POS der Position der Abweichung POS im Schritt f.3) zusätzlich basierend auf der Abstandsinformation erfolgen.
  • Vorteilhafterweise kann die Deformationsvorschrift DEF im Schritt f.4) zusätzlich basierend auf einer Materialeigenschaft des medizinischen Objekts und/oder einem Betriebsparameter des medizinischen Objekts und/oder einer Form des medizinischen Objekts und/oder einem Gewebeparameter des Untersuchungsobjekts und/oder einem physiologischen Parameter des Untersuchungsobjekts ermittelt werden DET-DEF.
  • Ferner kann das Erzeugen DET-DEF des segmentierten 3D-Bilddatensatzes segBD eine Annotation von zumindest einer Referenzlandmarke an der zumindest einen anatomischen Struktur AS in dem segmentierten 3D-Bilddatensatz segBD umfassen. Dabei kann die Annotation der zumindest einen Referenzlandmarke insbesondere manuell, beispielsweise durch eine Eingabe eines Nutzers mittels einer Eingabeeinheit, und/oder halbautomatisch und/oder automatisch erfolgen, beispielsweise durch Anwenden eines Algorithmus zur Mustererkennung und/oder basierend auf einem Anatomieatlas.
  • Das vorgeschlagene Verfahren zur Deformationskorrektur kann vorteilhafterweise für die Adaption von Segmentierungsverformungen in der Bildgebung angewendet werden, beispielsweise in der Neuroradiologie, der bildgebenden Überwachung bei einem Einsetzen von Aortenklappen oder der Abbildung einer Verformung von Gefäßen in einer Leber.
  • In der in 2 schematisch dargestellten Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann das Verfahren beginnend ab Schritt f.2) zur Erzeugung DET-corrOD des korrigierten Überlagerungsdatensatzes corrOD bis zum Eintreten Y einer Abbruchbedingung A wiederholt ausgeführt werden. Dabei kann der korrigierte Überlagerungsdatensatz corrOD als der Überlagerungsdatensatz OD im Schritt f.2) bereitgestellt werden PROV-corrOD.
  • 3 zeigt eine schematische Darstellung einer weiteren Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur, wobei der segmentierte 3D-Bilddatensatz segBD ein deformierbares Modell defM der zumindest einen anatomischen Struktur aufweisend erzeugt wird DET-segBD. Dabei kann die Deformationsvorschrift DEF im Schritt f.5) vorteilhafterweise auf das deformierbare Modell defM angewendet werden DET-corrOD. Ferner kann Schritt e) eine Anpassung des deformierbaren Modells defM in dem, insbesondere registrierten, segmentierten 3D-Bilddatensatz reg.segBD umfassen. Dabei kann insbesondere ein registriertes deformierbares Modell reg.defM bereitgestellt werden.
  • In 4 ist eine weitere vorteilhafte Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur schematisch dargestellt. Dabei kann Schritt f.3) ferner eine Ermittlung DET-cLM einer korrespondierenden zumindest einen Landmarke cLM in dem segmentierten 3D-Bilddatensatz segBD basierend auf der festgelegten Position der Abweichung POS umfassen. Dabei kann wenigstens eine der zumindest einen Referenzlandmarke als die korrespondierende zumindest eine Landmarke cLM ermittelt werden.
  • Dabei kann Schritt f.3) zudem eine Identifizierung DET-LM von zumindest einer Landmarke LM in der graphischen Darstellung des Überlagerungsdatensatzes gOD basierend auf der festgelegten Position der Abweichung POS umfassen. Zudem kann die korrespondierende zumindest eine Landmarke cLM basierend auf der zumindest einen Landmarke LM und/oder der festgelegten Position der Abweichung POS ermittelt werden.
  • 5 zeigt eine weitere vorteilhafte Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur, wobei die Identifizierung DET-LM der zumindest einen Landmarke LM in der graphischen Darstellung des Überlagerungsdatensatzes gOD und der damit korrespondierenden zumindest einen Landmarke cLM in dem segmentierten 3D-Bilddatensatz reg.segBD durch Anwenden einer trainierten Funktion TF-LM auf Eingabedaten erfolgt. Dabei können die Eingabedaten auf der festgelegten Position der Abweichung POS, der graphischen Darstellung des Überlagerungsdatensatzes gOD, dem segmentierten 3D-Bilddatensatz reg.segBD und den Bilddaten reg.intraBD basieren. Ferner kann zumindest ein Parameter der trainierten Funktion TF-LM auf einem Vergleich zumindest einer Trainingslandmarke mit zumindest einer Vergleichslandmarke und einem Vergleich der jeweils damit korrespondierenden zumindest einen Trainings- und Vergleichslandmarke basieren.
  • 6 zeigt schematisch eine Ausführungsform eines vorgeschlagenen Verfahrens zum Bereitstellen einer trainierten Funktion TF-LM. Dabei kann ein präoperativer 3D-Trainingsbilddatensatz preTBD von einem Untersuchungsbereich eines Untersuchungsobjekts empfangen werden REC-preTBD. Ferner kann ein segmentierter 3D-Trainingsbilddatensatz segTBD durch Segmentieren zumindest einer anatomischen Struktur in dem präoperativen 3D-Trainingsbilddatensatz preTBD erzeugt werden DET-segBD. Ferner können, insbesondere intraoperative, Trainingsbilddaten intraTBD von dem Untersuchungsbereich empfangen werden, wobei ein medizinisches Objekt in dem Untersuchungsbereich angeordnet ist. Hiernach kann der segmentierte 3D-Trainingsbilddatensatz segTBD mit den Trainingsbilddaten intraTBD registriert werden REG-BD. Ferner kann hiernach ein registrierter segmentierter 3D-Trainingsbilddatensatz reg.segTBD als der segmentierte 3D-Trainingsbilddatensatz segTBD und/oder können registrierte Trainingsbilddaten reg.intraTBD als die Trainingsbilddaten intra.TBD bereitgestellt werden. Ferner kann ein Trainingsüberlagerungsdatensatz TOD durch eine, insbesondere gewichtete und/oder adaptive, Überlagerung des segmentierten 3D-Trainingsbilddatensatzes reg.segTBD und den Trainingsbilddaten reg.intraTBD erzeugt werden DET-OD. Des Weiteren kann eine graphische Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD erzeugt werden VISU-OD. Die graphische Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD kann dabei insbesondere anhand einer Darstellungsgeometrie einer Darstellungseinheit simuliert werden. Ferner kann eine Trainingsposition TPOS einer Abweichung zwischen den Trainingsbilddaten reg.intraTBD und dem segmentierten 3D-Trainingsbilddatensatsz reg.segTBD in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD festgelegt werden DET-POS. Ferner kann zumindest eine Vergleichslandmarke VLM in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD basierend auf der festgelegten Trainingsposition TPOS der Abweichung identifiziert werden DET-LM. Zudem kann eine mit der zumindest einen Vergleichslandmarke LM korrespondierende zumindest eine Vergleichslandmarke cVLM in dem segmentierten 3D-Trainingsbilddatensatz reg.segTBD ermittelt werden DET-cLM. Des Weiteren kann zumindest eine Trainingslandmarke TLM in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD und eine damit korrespondierende zumindest eine Trainingslandmarke cTLM in dem segmentierten 3D-Trainingsbilddatensatz reg.segTBD durch Anwenden der trainierten Funktion TF-LM auf Eingabedaten identifiziert werden. Dabei können die Eingabedaten der trainierten Funktion TF-LM vorteilhafterweise auf der festgelegten Trainingsposition TPOS der Abweichung, der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD, dem segmentierten 3D-Trainingsbilddatensatz reg.segTBD und den Trainingsbilddaten reg.intraTBD basieren. Hierbei kann zumindest ein Parameter der trainierten Funktion TF-LM basierend auf einem Vergleich der zumindest einen Trainingslandmarke TLM mit der zumindest einen Vergleichslandmarke LM und einem Vergleich der jeweils damit korrespondierenden zumindest einen Trainingslandmarke cTLM und zumindest einen Vergleichslandmarke cVLM angepasst werden ADJ-TF-LM. Hiernach kann die trainierte Funktion TF-LM bereitgestellt werden PROV-TF-LM.
  • 7 zeigt eine schematische Darstellung einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur. Dabei kann der korrigierte Überlagerungsdatensatz corrOD durch Anwenden einer weiteren trainierten Funktion TF-corrOD auf weitere Eingabedaten erzeugt werden. Dabei können die weiteren Eingabedaten auf der festgelegten Position der Abweichung POS, dem segmentierten 3D-Bilddatensatz reg.segBD und den Bilddaten reg.intraBD basieren. Ferner kann zumindest ein Parameter der weiteren trainierten Funktion TF-corrOD auf einem Vergleich eines korrigierten Trainingsüberlagerungsdatensatzes mit einem korrigierten Vergleichsüberlagerungsdatensatz basieren.
  • In 8 ist ein vorgeschlagenes Verfahren zum Bereitstellen einer weiteren trainierten Funktion TF-corrOD schematisch dargestellt. Dabei kann ein präoperativer 3D-Trainingsbilddatensatz preTBD von einem Untersuchungsbereich eines Untersuchungsobjekts empfangen werden REC-preTBD. Ferner kann ein segmentierter 3D-Trainingsbilddatensatz segTBD durch Segmentieren zumindest einer anatomischen Struktur in dem präoperativen 3D-Trainingsbilddatensatz preTBD erzeugt werden DET-segBD. Ferner können, insbesondere intraoperative, Trainingsbilddaten intraTBD von dem Untersuchungsbereich empfangen werden, wobei ein medizinisches Objekt in dem Untersuchungsbereich angeordnet ist. Dabei kann eine Abbildung des medizinischen Objekts in den Trainingsbilddaten intraTBD identifiziert werden ID-MO. Hiernach kann der segmentierte 3D-Trainingsbilddatensatz segTBD mit den Trainingsbilddaten intraTBD registriert werden REG-BD. Ferner kann hiernach ein registrierter segmentierter 3D-Trainingsbilddatensatz reg.segTBD als der segmentierte 3D-Trainingsbilddatensatz segTBD und/oder können registrierte Trainingsbilddaten reg.intraTBD als die Trainingsbilddaten intra.TBD bereitgestellt werden. Ferner kann ein Trainingsüberlagerungsdatensatz TOD durch eine, insbesondere gewichtete und/oder adaptive, Überlagerung des segmentierten 3D-Trainingsbilddatensatzes reg.segTBD und den Trainingsbilddaten reg.intraTBD erzeugt werden DET-OD. Des Weiteren kann eine graphische Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD erzeugt werden VISU-OD. Die graphische Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD kann dabei insbesondere anhand einer Darstellungsgeometrie einer Darstellungseinheit simuliert werden. Ferner kann eine Trainingsposition TPOS einer Abweichung zwischen den Trainingsbilddaten reg.intraTBD und dem segmentierten 3D-Trainingsbilddatensatsz reg.segTBD in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes gTOD festgelegt werden DET-POS. Ferner kann eine Trainingsdeformationsvorschrift TDEF basierend auf der festgelegten Trainingsposition der Abweichung TPOS und der identifizierten Abbildung des medizinischen Objekts derart ermittelt werden DET-DEF, dass die Abweichung zwischen dem segmentierten 3D-Trainingsbilddatensatz reg.segTBD und den Trainingsbilddaten reg.intraTBD verringert wird. Ferner kann ein korrigierter Vergleichsüberlagerungsdatensatz corrVOD durch Anwenden der Trainingsdeformationsvorschrift TDEF auf den segmentierten 3D-Trainingsbilddatensatz reg.segTBD erzeugt werden DET-corrOD. Zudem kann ein korrigierter Trainingsüberlagerungsdatensatz corrTOD durch Anwenden der weiteren trainierten Funktion TF-corrOD auf weitere Eingabedaten erzeugt werden. Dabei können die weiteren Eingabedaten der weiteren trainierten Funktion TF-corrOD vorteilhafterweise auf der festgelegten Trainingsposition der Abweichung TPOS, dem segmentierten 3D-Trainingsbilddatensatz reg.segTBD und den Trainingsbilddaten reg.intraTBD basieren. Ferner kann zumindest ein Parameter der weiteren trainierten Funktion TF-corrOD basierend auf einem Vergleich zwischen dem korrigierten Trainingsüberlagerungsdatensatz corrTOD und dem korrigierten Vergleichsüberlagerungsdatensatz corrVOD angepasst werden ADJ-TF-corrOD. Hiernach kann die weitere trainierte Funktion TF-corrOD bereitgestellt werden PROV-TF-corrOD.
  • 9 zeigt schematisch eine vorgeschlagene Bereitstellungseinheit PRVS umfassend eine Schnittstelle IF, eine Recheneinheit CU und eine Speichereinheit MU. Die Bereitstellungseinheit PRVS kann dazu ausgebildet sein, ein vorgeschlagenes Verfahren zur Deformationskorrektur auszuführen, indem die Schnittstelle IF und die Recheneinheit CU ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • Insbesondere kann die Schnittstelle IF zur Ausführung der Schritte a) und f.6) des vorgeschlagenen Verfahrens zur Deformationskorrektur ausgebildet sein. Ferner kann die Recheneinheit zur Ausführung der übrigen Schritte des vorgeschlagenen Verfahrens zur Deformationskorrektur ausgebildet sein.
  • 10 zeigt schematisch eine vorgeschlagene Trainingseinheit TRS umfassend eine Trainingsschnittstelle TIF, eine Trainingsrecheneinheit TCU und eine Trainingsspeichereinheit TMU. Die Trainingseinheit TRS kann dazu ausgebildet sein, ein vorgeschlagenes Verfahren zum Bereitstellen einer trainierten Funktion PROV-TF-LM und/oder zum Bereitstellen einer weiteren trainierten Funktion PROV-TF-corrOD und seine jeweiligen Aspekte auszuführen, indem die Trainingsschnittstelle TIF und die Trainingsrecheneinheit TCU ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • Insbesondere kann die Trainingsschnittstelle TIF zum Empfangen des präoperativen 3D-Trainingsbilddatensatzes preTBD und/oder zum Empfangen der Trainingsbilddaten intraTBD ausgebildet sein. Ferner kann die Trainingsschnittstelle TIF zum Bereitstellen der trainierten Funktion PROV-TF-LM und/oder der weiteren trainierten Funktion PROV-TF-corrOD ausgebildet sein.
  • Bei der Bereitstellungseinheit PRVS und/oder bei der Trainingseinheit TRS kann es sich insbesondere um einen Computer, einen Mikrocontroller oder um einen integrierten Schaltkreis handeln. Alternativ kann es sich bei der Bereitstellungseinheit PRVS und/oder bei der Trainingseinheit TRS um einen realen oder virtuellen Verbund von Computern handeln (ein englischer Fachbegriff für einen realen Verbund ist „Cluster“, ein englischer Fachbegriff für einen virtuellen Verbund ist „Cloud“). Die Bereitstellungseinheit PRVS und/oder die Trainingseinheit TRS kann auch als virtuelles System ausgebildet sein, das auf einem realen Computer oder einem realen oder virtuellen Verbund von Computern ausgeführt wird (engl. virtualization) .
  • Bei einer Schnittstelle IF und/oder einer Trainingsschnittstelle TIF kann es sich um eine Hardware- oder Softwareschnittstelle handeln (beispielsweise PCI-Bus, USB oder Firewire). Eine Recheneinheit CU und/oder eine Trainingsrecheneinheit TCU kann Hardware-Elemente oder Software-Elemente aufweisen, beispielsweise einen Mikroprozessor oder ein sogenanntes FPGA (englisches Akronym für „Field Programmable Gate Array“). Eine Speichereinheit MU und/oder eine Trainingsspeichereinheit TMU kann als nicht dauerhafte Arbeitsspeicher (Random Access Memory, kurz RAM) oder als dauerhafter Massenspeicher (Festplatte, USB-Stick, SD-Karte, Solid State Disk) realisiert sein.
  • Die Schnittstelle IF und/oder die Trainingsschnittstelle TIF können insbesondere mehrere Unterschnittstellen umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen. Mit anderen Worten kann die Schnittstelle IF und/oder die Trainingsschnittstelle TIF auch als Vielzahl von Schnittstellen IF bzw. Vielzahl von Trainingsschnittstellen TIF aufgefasst werden. Die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU können insbesondere mehrere Unterrecheneinheiten umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen. Mit anderen Worten kann die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU auch als Vielzahl von Recheneinheiten CU bzw. Vielzahl von Trainingsrecheneinheiten TCU aufgefasst werden.
  • 11 zeigt eine schematische Darstellung einer Ausführungsform zur Erzeugung eines korrigierten Überlagerungsdatensatzes corrOD. Dabei kann die graphische Darstellung des Überlagerungsdatensatzes gOD beispielsweise einen Gefäßabschnitt als die zumindest eine anatomische Struktur AS in dem segmentierten 3D-Bilddatensatz reg.segBD aufweisen. Ferner kann die Abbildung des medizinischen Objekts MO, beispielsweise ein Führungsdraht und/oder Katheter und/oder Endoskop und/oder Laparoskop und/oder Implantat, in den Bilddaten intraTBD identifiziert sein ID-MO. Unter der Annahme, dass die Abbildung des medizinischen Objekts MO im Wesentlichen innerhalb des Gefäßabschnitts verlaufen muss, kann die Position der Abweichung POS festgelegt werden DET-POS. Im vorliegenden Beispiel kann die Position der Abweichung POS beispielsweise in der Nähe einer Bifurkation des Gefäßabschnitts festgelegt werden DET-POS. Hierfür kann die graphische Darstellung des Überlagerungsdatensatzes gOD beispielsweise mittels einer Darstellungseinheit angezeigt werden. Hiernach kann ein Nutzer durch eine Eingabe mittels einer Eingabeeinheit, beispielsweise einer Zeigeeinrichtung, insbesondere eine Computermaus und/oder einem Joystick, und/oder einen Eingabestift und/oder eine Tastatur, und/oder mittels Gestensteuerung festgelegen DET-POS. Ferner kann die Eingabeeinheit in die Darstellungseinheit integriert sein, beispielsweise als kapazitives Eingabedisplay. Alternativ oder zusätzlich kann die Position der Abweichung POS durch Anwenden eines Algorithmus zur Lokalisierung von Abweichungen festgelegt werden DET-POS. Dabei kann der Algorithmus zur Lokalisierung von Abweichungen beispielsweise dazu ausgebildet sein, eine Mustererkennung, insbesondere eine Erkennung anatomischer und/oder geometrischer Merkmale, in der graphischen Darstellung des Überlagerungsdatensatzes gOD auszuführen. Insbesondere kann der Algorithmus zur Lokalisierung von Abweichungen dazu ausgebildet sein, die geometrischen und/oder anatomischen Merkmale, die jeweils in dem Anteil der Bilddaten reg.intraBD und dem Anteil des segmentierten 3D-Bilddatensatzes reg.segBD, welche Anteile in der graphischen Darstellung des Überlagerungsdatensatzes gOD überlagert sind, miteinander zu vergleichen und eine auftretende Abweichung bildpunktgenau zu lokalisieren. Hiernach kann die Deformationsvorschrift DEF basierend auf der Position der Abweichung POS und der identifizierten Abbildung des medizinischen Objekts MO ermittelt werden DET-DEF. Durch Anwenden der Deformationsvorschrift DEF auf den segmentierten 3D-Bilddatensatz reg.segBD kann der korrigierte Überlagerungsdatensatz corrOD erzeugt werden DET-corrOD. Im vorliegenden Beispiel ist dargestellt, dass die zumindest eine anatomische Struktur AS, insbesondere der Gefäßabschnitt, in dem segmentierten 3D-Bilddatensatz reg.segBD derart durch die Anwendung der Deformationsvorschrift DEF deformiert wurde, dass das medizinische Objekt MO innerhalb des Gefäßabschnitts verläuft. Dabei kann die Position der Abweichung POS, insbesondere mit dem Gefäßabschnitt AS, hin zur Position POS' in dem korrigierten Überlagerungsdatensatz corrOD deformiert werden.
  • In der in 12 schematisch dargestellten Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur kann der Schritt f.4) ferner ein Bestimmen einer mit der festgelegten Position der Abweichung POS korrespondierenden Position cPOS in dem segmentierten 3D-Bilddatensatz reg.segBD mittels einer Rückprojektion umfassen. Vorteilhafterweise kann die graphische Darstellung des Überlagerungsdatensatzes gOD durch eine, insbesondere zweidimensionale, Projektion des segmentierten 3D-Bilddatensatzes reg.segBD entlang einer vorgegebenen Projektionsrichtung PD erzeugt werden. Dies ist insbesondere bei zweidimensionalen Bilddaten intraBD, die eine Projektionsabbildung des Untersuchungsbereichs aufweisen, vorteilhaft. Dabei kann die Projektionsrichtung PD in Abhängigkeit, insbesondere parallel zu, einer Projektionsrichtung zur Aufnahme der Bilddaten ACQ-intraBD vorgegeben sein. Dabei kann die Projektionsrichtung zur Aufnahme der Bilddaten vorteilhafterweise durch einen Fokuspunkt FP der Röntgenquelle verlaufen. Dabei kann die Rückprojektionsrichtung vorteilhafterweise anti-parallel zur Projektionsrichtung PD zur Projektion des segmentierten 3D-Bilddatensatzes reg.segBD bei der Erzeugung des Überlagerungsdatensatzes DET-OD verlaufen. Dabei kann die korrespondierende Position der Abweichung cPOS in dem segmentierten 3D-Bilddatensatz reg.segBD vorteilhafterweise auf einer Raumachse liegen, die parallel zur Rückprojektionsrichtung durch den Fokuspunkt FP der Projektionsabbildung verläuft. Ferner kann die korrespondierende Position cPOS entlang der Rückprojektionsrichtung insbesondere als Schnittpunkt mit der zumindest einen anatomischen Struktur AS, die in dem segmentierten 3D-Bilddatensatz enthalten ist, ermittelt werden. Alternativ oder zusätzlich kann die korrespondierende Position cPOS entlang der Rückprojektionsrichtung als Schnittpunkt mit dem deformierbaren Modell reg.defM der zumindest einen anatomischen Struktur AS ermittelt werden.
  • Ferner kann die zumindest eine Landmarke LM in der graphischen Darstellung des Überlagerungsdatensatzes gOD basierend auf der festgelegten Position der Abweichung POS identifiziert werden DET-LM. Dabei kann zur Ermittlung DET-DEF der Deformationsvorschrift DEF die mit der zumindest einen Landmarke LM korrespondierende zumindest eine Landmarke cLM in dem segmentierten 3D-Bilddatensatz reg.segBD ermittelt werden. Dabei kann die Ermittlung der korrespondierenden zumindest einen Landmarke cLM beispielsweise durch eine Rückprojektion der zumindest einen Landmarke LM entgegen der Projektionsrichtung PD erfolgen. Alternativ oder zusätzlich kann die korrespondierende zumindest eine Landmarke cLM ausgehend von der korrespondierenden Position cPOS basierend auf einer Relativpositionierung der zumindest einen Landmarke LM bezüglich der Position der Abweichung POS ermittelt werden.
  • 13 zeigt eine schematische Darstellung einer weiteren Ausführungsform zur Erzeugung eines korrigierten Überlagerungsdatensatzes corrOD. Dabei kann die graphische Darstellung des Überlagerungsdatensatzes gOD vorteilhafterweise einen Anteil des segmentierten 3D-Bilddatensatzes reg.segBD und einen Anteil der Bilddaten reg.intraBD aufweisen. Vorteilhafterweise kann der Anteil des segmentierten 3D-Bilddatensatzes segBD, insbesondere umfassend das deformierbare Modell defM der zumindest einen anatomischen Struktur AS, eine kontrastierte Abbildung der zumindest einen anatomischen Struktur AS aufweisen. Ferner kann der Anteil der Bilddaten reg.intraBD vorteilhafterweise eine, insbesondere kontrastierte, Abbildung zumindest eines Teils kAS der anatomischen Struktur und des, insbesondere darin angeordneten, medizinischen Objekts MO zum Zeitpunkt der Aufnahme der Bilddaten intraBD aufweisen. Durch die Anordnung des medizinischen Objekts MO in dem Teil der zumindest einen anatomischen Struktur AS kann es zu einer Deformation der zumindest einen anatomischen Struktur AS kommen. Hierdurch kann eine Abweichung zwischen den jeweiligen Abbildungen der anatomischen Struktur AS in der graphischen Darstellung des Überlagerungsdatensatzes gOD auftreten.
  • Vorteilhafterweise kann die Position der Abweichung POS eine Zielposition für die Ermittlung der Deformationsvorschrift DEF definieren. Dabei kann der segmentierte 3D-Bilddatensatz segBD für das Erzeugen des korrigierten Überlagerungsdatensatzes corrID zumindest teilweise hin zur Zielposition POS deformiert werden.
  • Im dargestellten Ausführungsbeispiel kann die korrespondierende zumindest eine Landmarke cLM in dem segmentierten 3D-Bilddatensatz basierend auf der Zielposition POS und/oder basierend auf der zumindest einer Landmarke LM in der graphischen Darstellung des Überlagerungsdatensatzes gOD ermittelt werden. Dabei kann die zumindest eine Landmarke LM beispielsweise eine Abbildung eines Ostiums in der graphischen Darstellung des Überlagerungsdatensatzes gOD markieren, insbesondere in dem Anteil des segmentierten 3D-Bilddatensatzes reg.segBD an dem Überlagerungsdatensatz OD. Ferner kann die Zielposition vorteilhafterweise eine tatsächliche Position der zumindest einen Landmarke LM in der graphischen Darstellung des Überlagerungsdatensatzes gOD markieren.
  • Sofern zumindest eine Referenzlandmarke in dem segmentierten 3D-Bilddatensatz reg.segBD an der zumindest einen anatomischen Struktur AS annotiert ist, kann die graphische Darstellung des Überlagerungsdatensatzes gOD eine graphische Darstellung, insbesondere eine Abbildung, der zumindest einen Referenzlandmarke aufweisen. Im dargestellten Ausführungsbeispiel weist die graphische Darstellung des Überlagerungsdatensatzes beispielhaft zwei graphische Darstellungen LM und LM2 von Referenzlandmarken in dem segmentierten 3D-Bilddatensatz reg.segBD auf. Dabei kann die zumindest eine Landmarke LM vorteilhafterweise basierend auf der festgelegten Position der Abweichung POS, insbesondere basierend auf einer räumlichen Distanz zur Position der Abweichung POS, identifiziert werden (DET-LM).
  • Die Deformationsvorschrift DEF kann vorzugsweise derart ermittelt werden, dass zumindest der Teil des segmentierten 3D-Bilddatensatzes reg.segBD, welcher Teil die korrespondierende zumindest eine Landmarke, insbesondere die zumindest eine Referenzlandmarke, aufweist, deformiert wird. Vorteilhafterweise kann hierdurch die zumindest eine Landmarke LM, insbesondere die graphische Darstellung der zumindest einen Referenzlandmarke, hin zur Zielposition POS deformiert werden.
  • 14 zeigt schematisch eine weitere Ausführungsform des vorgeschlagenen Verfahrens zur Deformationskorrektur. Dabei kann die Position der Abweichung POS eine Zielposition definieren. Ferner kann die korrespondierende Position cPOS eine korrespondierende Zielposition in dem segmentierten 3D-Bilddatensatz reg.segBD definieren. Des Weiteren kann die Deformationsvorschrift DEF derart ermittelt werden, dass zumindest ein Teil des segmentierten 3D-Bilddatensatzes reg.segBD hin zur korrespondierenden Zielposition cPOS deformiert wird. Insbesondere kann hierdurch die korrespondierende zumindest eine Landmarke cLM, welche insbesondere wenigstens eine der zumindest einen Referenzlandmarke sein kann, hin zur korrespondierenden Zielposition cPOS deformiert werden.
  • Vorteilhafterweise kann die korrespondierende Zielposition durch Rückprojektion der Position der Abweichung POS entgegen der Projektionsrichtung PD in den segmentierten 3D-Bilddatensatz reg.segBD bestimmt werden. Die korrespondierende Zielposition kann ferner als Schnittpunkt der Rückprojektionsrichtung ausgehend von der festgelegten Position der Abweichung POS mit einer Referenzebene bestimmt werden. Dabei kann die Referenzebene vorteilhafterweise dadurch bestimmt sein, dass die Rückprojektionsrichtung beziehungsweise die Projektionsrichtung PD eine Normale zur Referenzebene sind und die Referenzebene wenigstens eine der zumindest einen Referenzlandmarke aufweist. Beispielsweise kann die wenigstens eine der zumindest einen Referenzlandmarke einen Mittelpunkt eines Ostiums an der zumindest einen anatomischen Struktur AS markieren. Dabei kann die Referenzebene vorteilhafterweise den Mittelpunkt des Ostiums, welches durch die wenigstens eine der zumindest einen Referenzlandmarke markiert wird, aufweisen. Hierdurch kann die korrespondierende Zielposition vorteilhafterweise explizit basierend auf der festgelegten Position der Abweichung POS ermittelt werden.
  • In 15 ist ein beispielhaft für ein vorgeschlagenes medizinisches Bildgebungsgerät ein medizinisches C-Bogen-Röntgengerät 37 schematisch dargestellt. Dabei kann das medizinische C-Bogen-Röntgengerät 37 vorteilhafterweise eine vorgeschlagene Bereitstellungeinheit PRVS umfassen. Dabei ist das medizinische Bildgebungsgerät 37, insbesondere die vorgeschlagene Bereitstellungseinheit PRVS, zur Ausführung eines vorgeschlagenen Verfahrens zur Deformationskorrektur ausgebildet.
  • Hierbei umfasst das medizinische C-Bogen-Röntgengerät 37 zudem eine Detektoreinheit 34 und eine Röntgenquelle 33. Zur Aufnahme des präoperativen Bilddatensatzes preBD und/oder der Bilddaten intraBD, kann der Arm 38 des C-Bogen-Röntgengerätes 37 beweglich um ein oder mehrere Achsen herum gelagert sein. Ferner kann das medizinische C-Bogen-Röntgengerät 37 eine Bewegungsvorrichtung 39 umfassen, welche eine Bewegung des C-Bogen-Röntgengerätes 37 im Raum ermöglicht.
  • Zur Aufnahme des präoperativen Bilddatensatzes preBD und/oder der Bilddaten intraBD von dem Untersuchungsbereich des, auf einer Patientenlagerungseinrichtung 32 angeordneten Untersuchungsobjekts 31, kann die Bereitstellungseinheit PRVS ein Signal 24 an die Röntgenquelle 33 senden. Daraufhin kann die Röntgenquelle 33 ein Röntgenstrahlenbündel, insbesondere einen Kegelstrahl und/oder Fächerstrahl und/oder Parallelstrahl, aussenden. Beim Auftreffen des Röntgenstrahlenbündels, nach einer Wechselwirkung mit dem abzubildenden Untersuchungsbereich des Untersuchungsobjekts 31, auf einer Oberfläche der Detektoreinheit 34, kann die Detektoreinheit 34 ein Signal 21 an die Bereitstellungseinheit PRVS senden. Die Bereitstellungseinheit PRVS kann beispielsweise anhand des Signals 21 den präoperativen Bilddatensatz preBD und/oder die Bilddaten BD empfangen.
  • Des Weiteren kann das medizinische C-Bogen-Röntgengerät 37 eine Eingabeeinheit 42, beispielsweise eine Tastatur, und/ oder eine Darstellungseinheit 41, beispielsweise ein Monitor und/oder Display, umfassen. Die Eingabeeinheit 42 kann vorzugsweise in die Darstellungseinheit 41 integriert sein, beispielsweise bei einem kapazitiven Eingabedisplay. Dabei kann durch eine Eingabe eines Nutzers an der Eingabeeinheit 42 eine Steuerung des medizinischen C-Bogen-Röntgengeräts 37, insbesondere des vorgeschlagenen Verfahrens zur Deformationskorrektur, ermöglicht werden. Insbesondere kann die graphische Darstellung des Überlagerungsdatensatzes gOD mittels der Darstellungseinheit 41 angezeigt werden. Dabei kann der Nutzer mittels der Eingabeeinheit 42 die Position der Abweichung POS festlegen. Hierfür kann die Eingabeeinheit 42 beispielsweise ein Signal 26 an die Bereitstellungseinheit PRVS senden.
  • Ferner kann die Darstellungseinheit 41 dazu ausgebildet sein, Informationen und/oder graphische Darstellungen von Informationen des medizinischen Bildgebungsgeräts 37 und/oder der Bereitstellungseinheit PRVS und/oder weiterer Komponenten anzuzeigen. Hierfür kann die Bereitstellungseinheit PRVS beispielsweise ein Signal 25 an die Darstellungseinheit 41 senden. Insbesondere kann die Darstellungseinheit 41 ferner zur Anzeige der graphischen Darstellung des korrigierten Überlagerungsdatensatzes corrOD und/oder der Bilddaten intraBD und/oder des segmentierten 3D-Bilddatensatzes segBD anzuzeigen.
  • Die in den beschriebenen Figuren enthaltenen schematischen Darstellungen bilden keinerlei Maßstab oder Größenverhältnis ab.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorhergehend detailliert beschriebenen Verfahren sowie bei den dargestellten Vorrichtungen lediglich um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Weiterhin schließt die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht aus, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit“ und „Element“ nicht aus, dass die betreffenden Komponenten aus mehreren zusammenwirkenden Teil-Komponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.

Claims (22)

  1. Verfahren zur Deformationskorrektur, umfassend: a) Empfangen (REC-preBD) eines präoperativen 3D-Bilddatensatzes (preBD) von einem Untersuchungsbereich eines Untersuchungsobjekts (31), b) Erzeugen (DET-segBD) eines segmentierten 3D-Bilddatensatzes (segBD) durch Segmentieren zumindest einer anatomischen Struktur (AS) in dem präoperativen 3D-Bilddatensatz (preBD), c) Aufnehmen (ACQ-intraBD) von Bilddaten (intra-BD) von dem Untersuchungsbereich, wobei ein medizinisches Objekt (MO) in dem Untersuchungsbereich angeordnet ist, d) Identifizieren (ID-MO) einer Abbildung des medizinischen Objekts (MO) in den Bilddaten (intraBR), e) Registrieren (REG-BD) des segmentierten 3D-Bilddatensatzes (segBD) mit den Bilddaten (intraBD), f.1) Erzeugen (DET-OD) eines Überlagerungsdatensatzes (OD) basierend auf dem segmentierten 3D-Bilddatensatz (segBD) und den Bilddaten (intraBD), f.2) Anzeigen (VISU-OD) einer graphischen Darstellung des Überlagerungsdatensatzes (gOD) mittels einer Darstellungseinheit (41), f.3) Festlegen (DET-POS) einer Position einer Abweichung (POS) zwischen den Bilddaten (intraBD) und dem segmentierten 3D-Bilddatensatz (segBD) in der graphischen Darstellung des Überlagerungsdatensatzes (gOD), f.4) Ermitteln (DET-DEF) einer Deformationsvorschrift (DEF) basierend auf der festgelegten Position der Abweichung (POS) und der identifizierten Abbildung des medizinischen Objekts (MO) derart, dass die Abweichung zwischen den Bilddaten (intraBD) und dem segmentierten 3D-Bilddatensatz (segBD) verringert wird, f.5) Erzeugen (DET-corrOD) eines korrigierten Überlagerungsdatensatzes (corrOD) durch Anwenden der Deformationsvorschrift (DEF) auf den segmentierten 3D-Bilddatensatz (segBD), f.6) Bereitstellen (PROV-corrOD) des korrigierten Überlagerungsdatensatzes (corrOD).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren beginnend ab Schritt f.2) zur Erzeugung (DET-corrOD) des korrigierten Überlagerungsdatensatzes (corrOD) bis zum Eintreten (Y) einer Abbruchbedingung (A) wiederholt ausgeführt wird, wobei der korrigierte Überlagerungsdatensatz (corrOD) als Überlagerungsdatensatz (OD) in Schritt f.2) bereitgestellt wird (PROV-corrOD).
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass der segmentierte 3D-Bilddatensatz (segBD) ein deformierbares Modell (defM) der zumindest einen anatomischen Struktur (AS) aufweisend erzeugt wird (DET-segBD), wobei die Deformationsvorschrift (DEF) in Schritt f.5) auf das deformierbare Modell (defM) angewendet wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass Schritt e) ferner eine Anpassung des deformierbaren Modells (defM) in dem segmentierten 3D-Bilddatensatz (segBD) umfasst.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Erzeugen (DET-segBD) des segmentierten 3D-Bilddatensatzes (segBD) eine Annotation von zumindest einer Referenzlandmarke an der zumindest einen anatomischen Struktur (AS) in dem segmentierten 3D-Bilddatensatz (segBD) umfasst.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Schritt f.3) ferner eine Ermittlung einer korrespondierenden zumindest einen Landmarke (cLM) in dem segmentierten 3D-Bilddatensatz (segBD) basierend auf der festgelegten Position der Abweichung (POS) umfasst.
  7. Verfahren nach Anspruch 5 und 6, dadurch gekennzeichnet, dass wenigstens eine der zumindest einen Referenzlandmarke als die korrespondierende zumindest eine Landmarke (cLM) ermittelt wird.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass Schritt f.3) ferner eine Identifizierung (DET-LM) von zumindest einer Landmarke (LM) in der graphischen Darstellung des Überlagerungsdatensatzes (gOD) basierend auf der festgelegten Position der Abweichung (POS) umfasst, wobei die korrespondierende zumindest eine Landmarke (cLM) basierend auf der zumindest einen Landmarke (LM) ermittelt wird (DET-cLM).
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Position der Abweichung (POS) eine Zielposition für die Ermittlung der Deformationsvorschrift (DEF) in Schritt f.4) definiert.
  10. Verfahren nach Anspruch 8 und 9, wobei die Deformationsvorschrift (DEF) derart ermittelt wird, dass die zumindest eine Landmarke (LM) hin zur Zielposition deformiert wird.
  11. Verfahren nach einem der Ansprüche 6 bis 10, dadurch gekennzeichnet, dass die Identifizierung (DET-LM) der zumindest einen Landmarke (LM) in der graphischen Darstellung des Überlagerungsdatensatzes (gOD) und der damit korrespondierenden zumindest einen Landmarke (cLM) in dem segmentierten 3D-Bilddatensatz (segBD) durch Anwenden einer trainierten Funktion (TF-LM) auf Eingabedaten erfolgt, wobei die Eingabedaten auf der festgelegten Position der Abweichung (POS), der graphischen Darstellung des Überlagerungsdatensatzes (gOD), dem segmentierten 3D-Bilddatensatz (segBD) und den Bilddaten (intraBD) basieren, wobei zumindest ein Parameter der trainierten Funktion (TF-LM) auf einem Vergleich zumindest einer Trainingslandmarke (TLM) mit zumindest einer Vergleichslandmarke (VLM) und einem Vergleich der jeweils damit korrespondierenden zumindest einen Trainings- (cTLM) und Vergleichslandmarke (cVLM) basiert.
  12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Festlegen (DET-POS) der Position der Abweichung (POS) in Schritt f.3) durch eine Eingabe eines Nutzers mittels einer Eingabeeinheit (42) erfolgt.
  13. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Überlagerungsdatensatz (OD) eine Abstandsinformation zu der Abweichung zwischen dem segmentierten 3D-Bilddatensatz (segBD) und den Bilddaten (intraBD) aufweist, wobei das Festlegen (DET-POS) der Position der Abweichung (POS) in Schritt f.3) zusätzlich basierend auf der Abstandsinformation erfolgt.
  14. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Schritt f.4) ein Bestimmen einer mit der festgelegten Position der Abweichung (POS) korrespondierenden Position (cPOS) in dem segmentierten 3D-Bilddatensatz (segBD) mittels einer Rückprojektion umfasst.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die Position der Abweichung (POS) eine Zielposition definiert, wobei die korrespondierende Position (cPOS) eine korrespondierende Zielposition in dem segmentierten 3D-Bilddatensatz (segBD) definiert, wobei die Deformationsvorschrift (DEF) derart ermittelt wird (DET-DEF), dass zumindest ein Teil des segmentierten 3D-Bilddatensatzes hin zur korrespondierenden Zielposition deformiert wird.
  16. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Deformationsvorschrift (DEF) in Schritt f.4) zusätzlich basierend auf einer Materialeigenschaft des medizinischen Objekts (MO) und/oder einem Betriebsparameter des medizinischen Objekts (MO) und/oder einer Form des medizinischen Objekts (MO) und/oder einem Gewebeparameter des Untersuchungsobjekts (31) und/oder einem physiologischen Parameter des Untersuchungsobjekts (31) ermittelt wird.
  17. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der korrigierte Überlagerungsdatensatz (corrOD) durch Anwenden einer weiteren trainierten Funktion (TF-corrOD) auf weitere Eingabedaten erzeugt wird, wobei die weiteren Eingabedaten auf der festgelegten Position der Abweichung (POS), dem segmentierten 3D-Bilddatensatz (segBD) und den Bilddaten (intraBD) basieren, wobei zumindest ein Parameter der weiteren trainierten Funktion (TF-corrOD) auf einem Vergleich eines korrigierten Trainingsüberlagerungsdatensatzes (corrTOD) mit einem korrigierten Vergleichsüberlagerungsdatensatz (corrVOD) basiert.
  18. Verfahren zum Bereitstellen (PROV-TF-LM) einer trainierten Funktion (TF-LM), umfassend: t.1) Empfangen (REC-preTBD) eines präoperativen 3D-Trainingsbilddatensatzes (preTBD) von einem Untersuchungsbereich eines Untersuchungsobjekts (31), t.2) Erzeugen (DET-segBD) eines segmentierten 3D-Trainingsbilddatensatzes (segTBD) durch Segmentieren zumindest einer anatomischen Struktur (AS) in dem präoperativen 3D-Trainingsbilddatensatz (preTBD), t.3) Empfangen (REC-intraTBD) von Trainingsbilddaten (intraTBD) von dem Untersuchungsbereich, wobei ein medizinisches Objekt (MO) in dem Untersuchungsbereich angeordnet ist, t.4) Registrieren (REG-BD) des segmentierten 3D-Trainingsbilddatensatzes (segTBD) mit den Trainingsbilddaten (intraTBD), t.5) Erzeugen (DET-TOD) eines Trainingsüberlagerungsdatensatzes (TOD) basierend auf dem segmentierten 3D-Trainingsbilddatensatz (segTBD) und den Trainingsbilddaten (intraTBD), t.6) Erzeugen (VISU-OD) einer graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes (gTOD), t.7) Festlegen (DET-POS) einer Trainingsposition einer Abweichung (TPOS) zwischen den Trainingsbilddaten (intraTBD) und dem segmentierten 3D-Trainingsbilddatensatz (segTBD) in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes (gTOD), t.8) Identifizieren (DET-LM) zumindest einer Vergleichslandmarke (VLM) in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes (gTOD) basierend auf der festgelegten Trainingsposition der Abweichung (TPOS), t.9) Ermitteln (DET-cLM) einer mit der zumindest einen Vergleichslandmarke (VLM) korrespondierenden zumindest einen Vergleichslandmarke (cVLM) in dem segmentierten 3D-Trainingsbilddatensatz (segTBD), t.10) Identifizieren zumindest einer Trainingslandmarke (TLM) in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes (gTOD) und eine damit korrespondierenden zumindest einen Trainingslandmarke (cTLM) in dem segmentierten 3D-Trainingsbilddatensatz (segTBD) durch Anwenden der trainierten Funktion (TF-LM) auf Eingabedaten, wobei die Eingabedaten auf der festgelegten Trainingsposition der Abweichung (TPOS), der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes (gTOD), dem segmentierten 3D-Trainingsbilddatensatz (segTBD) und den Trainingsbilddaten (intraTBD) basieren, t.11) Anpassen (ADJ-TF-LM) zumindest eines Parameters der trainierten Funktion (TF-LM) basierend auf einem Vergleich der zumindest einen Trainingslandmarke (TLM) mit der zumindest einen Vergleichslandmarke (VLM) und einem Vergleich der jeweils damit korrespondierenden zumindest einen Trainings-(cTLM) und Vergleichslandmarke (cVLM), t.12) Bereitstellen (PROV-TF-LM) der trainierten Funktion (TF-LM).
  19. Verfahren zum Bereitstellen (PROV-TF-corrOD) einer weiteren trainierten Funktion (TF-corrOD), umfassend: tr.1) Empfangen (REC-preTBD) eines präoperativen 3D-Trainingsbilddatensatzes (preTBD) von einem Untersuchungsbereich eines Untersuchungsobjekts (31), tr.2) Erzeugen (DET-segTBD) eines segmentierten 3D-Trainingsbilddatensatzes (segTBD) durch Segmentieren zumindest einer anatomischen Struktur (AS) in dem präoperativen 3D-Trainingsbilddatensatz (preTBD), tr.3) Empfangen (REC-intraTBD) von Trainingsbilddaten (intraTBD) von dem Untersuchungsbereich, wobei ein medizinisches Objekt (MO) in dem Untersuchungsbereich angeordnet ist, tr.4) Identifizieren (ID-MO) einer Abbildung des medizinischen Objekts (MO) in den Trainingsbilddaten (intraTBD), tr.5) Registrieren (REG-BD) des segmentierten 3D-Trainingsbilddatensatzes (segTBD) mit den Trainingsbilddaten (intraTBD), tr.6) Erzeugen (DET-TOD) eines Trainingsüberlagerungsdatensatzes (TOD) basierend auf dem segmentierten 3D-Trainingsbilddatensatz (segTBD) und den Trainingsbilddaten (intraTBD), tr.7) Erzeugen (VISU-gTOD) einer graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes (gTOD), tr.8) Festlegen (DET-TPOS) einer Trainingsposition einer Abweichung (TPOS) zwischen den Trainingsbilddaten (intraTBD) und dem segmentierten 3D-Trainingsbilddatensatz (segTBD) in der graphischen Trainingsdarstellung des Trainingsüberlagerungsdatensatzes (gTOD), tr.9) Ermitteln (DET-TDEF) einer Trainingsdeformationsvorschrift (TDEF) basierend auf der festgelegten Trainingsposition der Abweichung (TPOS) und der identifizierten Abbildung des medizinischen Objekts (MO) derart, dass die Abweichung zwischen den Trainingsbilddaten (intraTBD) und dem segmentierten 3D-Trainingsbilddatensatz (setTBD) verringert wird, tr.10) Erzeugen (DET-corrOD) eines korrigierten Vergleichsüberlagerungsdatensatzes (corrVOD) durch Anwenden der Trainingsdeformationsvorschrift (TDEF) auf den segmentierten 3D-Trainingsbilddatensatz (segTBD), tr.11) Erzeugen eines korrigierten Trainingsüberlagerungsdatensatzes (corrTOD) durch Anwenden der weiteren trainierten Funktion (TF-corrOD) auf weitere Eingabedaten, wobei die weiteren Eingabedaten auf der festgelegten Trainingsposition der Abweichung (TPOS), dem segmentierten 3D-Trainingsbilddatensatz (segTBD) und den Trainingsbilddaten (intraTBD) basieren, tr.12) Anpassen (ADJ-TF-corrOD) zumindest eines Parameters der weiteren trainierten Funktion (TF-corrOD) basierend auf einem Vergleich zwischen dem korrigierten Trainingsüberlagerungsdatensatz (corrTOD) und dem korrigierten Vergleichsüberlagerungsdatensatz (corrVOD), tr.13) Bereitstellen (PROV-TF-corrOD) der weiteren trainierten Funktion (TF-corrOD).
  20. Trainingseinheit (TRS), welche zur Ausführung eines Verfahrens nach einem der Ansprüche 18 oder 19 ausgebildet ist.
  21. Medizinisches Bildgebungsgerät (37), welches zur Ausführung eines Verfahrens nach einem der Ansprüche 1 bis 17 ausgebildet ist, wobei das medizinische Bildgebungsgerät (37) zur Aufnahme (ACQ-intraBD) der Bilddaten (intraBD) von dem Untersuchungsbereich des Untersuchungsobjekts (31) ausgebildet ist.
  22. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher (MU) einer Bereitstellungseinheit (PRVS) ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 17 auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit (PRVS) ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher (TMU) einer Trainingseinheit (TRS) ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens nach Anspruch 18 oder 19 auszuführen, wenn die Programmabschnitte von der Trainingseinheit (TRS) ausgeführt werden.
DE102020201928.2A 2020-02-07 2020-02-17 Verfahren zur Deformationskorrektur Pending DE102020201928A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/159,143 US11657519B2 (en) 2020-02-07 2021-01-26 Method for deformation correction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020201489 2020-02-07
DE102020201489.2 2020-02-07

Publications (1)

Publication Number Publication Date
DE102020201928A1 true DE102020201928A1 (de) 2021-08-12

Family

ID=76968562

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020201928.2A Pending DE102020201928A1 (de) 2020-02-07 2020-02-17 Verfahren zur Deformationskorrektur

Country Status (2)

Country Link
US (1) US11657519B2 (de)
DE (1) DE102020201928A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230074420A1 (en) * 2021-09-07 2023-03-09 Nvidia Corporation Transferring geometric and texture styles in 3d asset rendering using neural networks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010041735A1 (de) 2010-09-30 2012-04-05 Siemens Aktiengesellschaft Verfahren zum Darstellen eines Gefäßes eines bestimmten biologischen Objekts
DE102016212882A1 (de) 2016-07-14 2018-01-18 Siemens Healthcare Gmbh Verfahren zur Planungsunterstützung bei einem interventionellen Eingriff und System

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2832832A1 (fr) * 2001-11-23 2003-05-30 Ge Med Sys Global Tech Co Llc Procede de detection et de caracterisation automatique de nodules dans une image tomographique et systeme d'imagerie medicale par tomodensimetrie correspondant
US8184886B2 (en) 2007-08-21 2012-05-22 Siemens Aktiengesellschaft Deformable 2D-3D registration
WO2009044321A2 (en) * 2007-10-01 2009-04-09 Koninklijke Philips Electronics N.V. Detection and tracking of interventional tools
CN102202576B (zh) * 2008-10-10 2015-04-08 皇家飞利浦电子股份有限公司 用于为了在微创的x射线引导的介入中减少x射线剂量而产生覆盖经分割的目标结构或病变的减小视场的、具有自动快门适应的血管造影图像采集系统和方法
WO2010046838A1 (en) * 2008-10-23 2010-04-29 Koninklijke Philips Electronics N.V. Cardiac- and/or respiratory-gated image acquisition system and method for virtual anatomy enriched real-time 2d imaging in interventional radiofrequency ablation or pacemaker placement procedures
US9886760B2 (en) 2015-03-05 2018-02-06 Broncus Medical Inc. GPU-based system for performing 2D-3D deformable registration of a body organ using multiple 2D fluoroscopic views
EP3771449A1 (de) 2019-07-31 2021-02-03 Siemens Healthcare GmbH Verfahren zur verformungssimulation und vorrichtung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010041735A1 (de) 2010-09-30 2012-04-05 Siemens Aktiengesellschaft Verfahren zum Darstellen eines Gefäßes eines bestimmten biologischen Objekts
DE102016212882A1 (de) 2016-07-14 2018-01-18 Siemens Healthcare Gmbh Verfahren zur Planungsunterstützung bei einem interventionellen Eingriff und System

Also Published As

Publication number Publication date
US20210248762A1 (en) 2021-08-12
US11657519B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
DE102017010680A1 (de) Medizinische Bildverarbeitungsvorrichtung, medizinisches Bildverarbeitungsverfahren, computerlesbares medizinisches Bildverarbeitungsprogramm, Bewegt-Objekt-Verfolgungsvorrichtung, und Strahlentherapiesystem
DE10350438A1 (de) Verfahren und Einrichtung zur medizinischen Interventionsverfahrenplanung
DE102006049865B4 (de) Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern
DE102014204799A1 (de) Verfahren und Vorrichtung zur Darstellung eines Gefäßes
DE102020210192A1 (de) Bereitstellen einer synthetisch kontrastierten Szene
DE102013202313A1 (de) Verfahren und Vorrichtung zur Korrektur von Bewegungsartefakten bei einem computertomographischen Bild
DE102010013498B4 (de) Verfahren zum Ermitteln von dreidimensionalen Volumendaten, Bildgebungsvorrichtung und Datenträger
DE102020201928A1 (de) Verfahren zur Deformationskorrektur
DE102019216745A1 (de) Anonymisierung von medizinischen Bilddaten
DE102020214319B3 (de) Bereitstellen eines optimalen Subtraktionsdatensatzes
DE102019217576B4 (de) Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
EP3797692B1 (de) Verfahren und vorrichtung zur ansteuerung eines medizinischen bildgebungsgeräts
DE102021210879A1 (de) Bereitstellen eines Vergleichsdatensatzes
DE102020205039B3 (de) Bereitstellen eines dynamischen Maskenbildes
DE102008054298B4 (de) Verfahren und Vorrichtung zur 3D-Visualisierung eines Eingriffspfades eines medizinischen Instrumentes, eines medizinischen Instrumentes und/oder einer bestimmten Gewebestruktur eines Patienten
DE102021210283A1 (de) Erzeugen eines Zwischenbildes
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102021201729A1 (de) Vorrichtung zum Bewegen eines medizinischen Objekts und Verfahren zum Bereitstellen einer Steuerungsvorgabe
EP2634748B1 (de) Bilddatenbestimmungsverfahren
DE102010042761A1 (de) Verfahren und Gerät zur Akquisition von Röntgenbildern
DE102019213813A1 (de) Bereitstellen eines Prognosedatensatzes
DE102005059300A1 (de) Bildgebungsverfahren und -einrichtung zur Unterstützung eines Chirurgen bei einem interventionellen radiologischen Vorgang
DE102013208892A1 (de) Verfahren und Vorrichtung zur patientenspezifischen Modellierung eines Organteiles
DE102019207803A1 (de) Registrierungseinrichtung, Verfahren zum Registrieren, entsprechendes Computerprogramm und computerlesbares Speichermedium
DE102022201003B3 (de) Verfahren zum Festlegen einer Aufnahmetrajektorie

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNERS: FRIEDRICH-ALEXANDER-UNIVERSITAET ERLANGEN-NUERNBERG, 91054 ERLANGEN, DE; SIEMENS HEALTHCARE GMBH, MUENCHEN, DE

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNERS: FRIEDRICH-ALEXANDER-UNIVERSITAET ERLANGEN-NUERNBERG, 91054 ERLANGEN, DE; SIEMENS HEALTHCARE GMBH, MUENCHEN, DE

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE