DE102015218596A1 - Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen - Google Patents

Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen Download PDF

Info

Publication number
DE102015218596A1
DE102015218596A1 DE102015218596.6A DE102015218596A DE102015218596A1 DE 102015218596 A1 DE102015218596 A1 DE 102015218596A1 DE 102015218596 A DE102015218596 A DE 102015218596A DE 102015218596 A1 DE102015218596 A1 DE 102015218596A1
Authority
DE
Germany
Prior art keywords
recording data
values
recording
data sets
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015218596.6A
Other languages
English (en)
Inventor
Thilo Elsässer
Robert Frysch
Georg Rose
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102015218596.6A priority Critical patent/DE102015218596A1/de
Priority to US15/275,773 priority patent/US10039512B2/en
Publication of DE102015218596A1 publication Critical patent/DE102015218596A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • G01N23/046Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material using tomography, e.g. computed tomography [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/42Imaging image digitised, -enhanced in an image processor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/612Specific applications or type of materials biological material

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erfassen einer Bewegung (B) eines Körpers (9) zwischen Aufnahmezeitpunkten (t1, t2) zumindest zweier Aufnahmedatensätze (11), wobei in einem jeweiligen Paarvergleich (21) eines ersten (i) und eines zweiten (j) der Aufnahmedatensätze (11) a) für virtuelle Schnittebenen (22, 23) des Körpers (9) anhand des ersten Aufnahmedatensatzes (i) ein erster Zwischenfunktionswert (Sni) von Dämpfungswerten aller in der Schnittebene (22, 23) liegenden Körperelemente (17) und anhand des zweiten Aufnahmedatensatzes (j) ein zweiter Zwischenfunktionswert (Snj) der Dämpfungswerte ermittelt wird und b) für jede Schnittebene (22, 23) ein Unterschiedswert aus den Zwischenfunktionswerten (Sni, Snj) ermittelt wird und c) für die beiden Aufnahmedatensätze (i, j) ein Gesamtfehlerwert (εij) durch Zusammenfassen der Unterschiedswerte aller Schnittebenen (22, 23) berechnet wird. Die Erfindung sieht vor, dass die virtuellen Schnittebenen (22, 23) eine gemeinsame Schnittgerade haben und sich für den jeweiligen Aufnahmezeitpunkt (t1, t2) die Schnittlinien (22’, 23’) paarweise in zumindest einem Pixel (20) unterschieden.

Description

  • Die Erfindung betrifft ein Verfahren zum Erfassen einer Bewegung zumindest eines Teils eines Körpers, die der Körper zwischen zwei Aufnahmezeitpunkten von Aufnahmedatensätzen in einer Tomographieanlage ausgeführt hat. Die Bewegung wird anhand der Aufnahmedatensätze selbst erkannt. Zu der Erfindung gehört auch eine Tomographieanlage, mittels welcher das erfindungsgemäße Verfahren durchgeführt werden kann.
  • Mittels einer Tomographieanlage kann ein Körper, beispielsweise der Körper eines Patienten, aus unterschiedlichen Projektionswinkeln mit einer Strahlung durchleuchtet werden. Die Strahlung trifft auf eine Detektorfläche der Tomographieanlage, wo einzelne Pixelsensoren für jeweils ein Bildelement oder Pixel der Detektorfläche die Strahlungsintensität erfassen. Die Pixelwerte einer Projektion oder Aufnahme werden in einem Aufnahmedatensatz zusammengefasst. Unter einem Aufnahmedatensatz wird im Zusammenhang mit der Erfindung somit ein Datensatz verstanden, der Pixelwerte von Pixeln einer Detektorfläche einer Tomographieanlage enthält, wobei jeder Pixelwert den Einfluss von Dämpfungswerten von Körperelementen des Körpers auf eine Projektionsstrahlung beschreibt, die die Körperelementen nacheinander zu einem vorgegebenen Aufnahmezeitpunkt durchdrungen hat und anschließend auf das Pixel der Detektorfläche getroffen ist.
  • Aus den Aufnahmedatensätzen, die aus unterschiedlichen Projektionswinkeln gewonnen wurden, lässt sich ein graphisches 3D-Modell des Körpers rekonstruieren. Das 3D-Modell kann beispielsweise mittels des bekannten Algorithmus der gefilterten Rückprojektion gewonnen werden. Damit diese 3D-Rekonstruktion Körperelemente des Körpers, also beispielsweise innere Organe, scharf oder deutlich abbildet, ist es nötig, dass der Körper seine Position nicht ändert, also unbewegt bleibt, damit die Pixelwerte unterschiedlicher Aufnahmedatensätze korrekt den Bildwerten des Objektes zugeordnet werden können. Sollte sich der Körper bewegen, so lässt sich dennoch eine korrekte Zuordnung treffen, wenn die Bewegung genau bekannt ist (z.B. durch ein zusätzliches Trackingsystem). Ist diese Information nicht verfügbar, ergibt sich eine unscharfe oder eine durch Streifenmuster überlagerte (von Kanten ausgehend) gestörte Abbildung der Körperregionen in dem 3D-Modell. Man spricht hier allgemein von Bewegungsartefakten.
  • Aus der EP 2 490 180 A1 ist zum Detektieren einer Bewegung eines Körpers ein Verfahren bekannt, mittels welchem auf der Grundlage zweier Aufnahmedatensätze jeweils eine Ableitung eines planaren Integrals berechnet wird, die auch als Zwischenfunktion bezeichnet wird. Das planare Integral stellt die 3D-Radon-Transformation dar. Der Zwischenfunktionswert beschreibt für eine virtuelle Schnittebene des Körpers die Gesamtheit aller Dämpfungswerte der Körperelemente des Körpers, die sich in dieser Schnittebene befinden. Der Zwischenfunktionswert kann hierbei jeweils sowohl auf der Grundlage des ersten Aufnahmedatensatzes und unabhängig davon auf der Grundlage des zweiten Aufnahmedatensatzes ermittelt werden. Hat sich der Körper zwischen den Aufnahmezeitpunkten der beiden Projektionen bewegt, so unterscheiden sich die beiden Zwischenfunktionswerte.
  • Aus der WO 2014/108237 A1 ist ein Verfahren zur Dejustagekorrektur für Bildgebungsverfahren bekannt. Auch dieses Verfahren nutzt die Zwischenfunktion, um einen Unterschied zwischen zwei Aufnahmedatensätzen zu ermitteln. Die Zwischenfunktion wird in dieser Veröffentlichung als Funktion g3 bezeichnet. Um eine geometrische Dejustage (durch z.B. fehlerhafte Kalibration bzw. Verschiebungen/ Verdrehungen/ Verformungen der Bestandteile) der Tomographieanlage zwischen zwei Aufnahmezeitpunkten zu ermitteln, wird ein Unterschiedswert d zwischen den Zwischenfunktionswerten zweier Aufnahmedatensätze ermittelt. Um eine robuste Detektion der Dejustage zu erhalten, wird nicht nur ein einzelner Unterschiedswert d ermittelt, sondern es werden mehrere virtuelle Schnittebenen des Körpers definiert und für jede Schnittebene jeweils auf Grundlage zweier Aufnahmedatensätze zwei Zwischenfunktionswerte und aus diesen wiederum jeweils ein Unterschiedswert d ermittelt. Die Unterschiedswerte d werden zu einem Gesamtfehlerwert D zusammengefasst. Die Zahl der gewählten Schnittebenen kann bei diesem Verfahren sehr hoch gewählt werden und ist durch die Detektorauflösung und -abmessung limitiert. Des Weiteren wird auf Grundlage des Gesamtfehlerwerts D nacheinander jeweils ein einzelner Geometrieparameter der Tomographieanlage angepasst, um die geometrische Dejustage auszugleichen. Diese sequentielle Anpassung kann zu einem suboptimalen Kompensationsergebnis führen, da nicht alle Geometrieparameter unabhängig voneinander sind. Somit sind unter Umständen mehrere Iterationen notwendig (mehrfache Optimierung derselben Geometrieparameter).
  • Der Erfindung liegt die Aufgabe zugrunde, für Aufnahmedatensätze einer Tomographieanlage in effizienter Weise eine Bewegung zu erfassen, die ein Körper zwischen den Aufnahmezeitpunkten der Aufnahmedatensätze durchgeführt hat.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Merkmale der abhängigen Patentansprüche gegeben.
  • Durch die Erfindung ist ein Verfahren zum Erfassen einer Bewegung zumindest eines Teils eines Körpers zwischen Aufnahmezeitpunkten zumindest zweier Aufnahmedatensätze gegeben. Jeder Aufnahmedatensatz enthält jeweils Pixelwerte von Pixeln einer Detektorfläche einer Tomographieanlage, wobei jeder Pixelwert Dämpfungswerte von Körperelementen des Körpers für eine Projektionsstrahlung beschreibt. Jeder Pixelwert stellt insbesondere den sogenannten Extinktionswert ln(I0/I) dar, dessen Berechnung aus dem Stand der Technik bekannt ist. Um zu erfassen, ob sich der Körper oder ein Teil davon zwischen den Aufnahmezeitpunkten der Aufnahmedatensätze bewegt hat, werden die Aufnahmedatensätze jeweils paarweise miteinander verglichen. In jedem Paarvergleich eines ersten und eines zweiten der Aufnahmedatensätze werden dabei folgende Schritte durchgeführt. Für mehrere virtuelle Schnittebenen des Körpers wird auf der Grundlage des ersten Aufnahmedatensatzes i ein erster Zwischenfunktionswert der Dämpfungswerte aller in der Schnittebene liegenden Körperelemente und auf der Grundlage des zweiten Aufnahmedatensatzes j ein zweiter Zwischenfunktionswert der Dämpfungswerte der Schnittebene, das heißt aller in der Schnittebene liegenden Körperelemente, ermittelt. Dies wird wie folgt erreicht. Jede Schnittebene schneidet jede Detektorfläche zum jeweiligen Aufnahmezeitpunkt entlang einer Schnittlinie. Jeder Schnittlinie wird ein Zwischenfunktionswert zugeordnet. Es werden hierzu jeweils die Pixelwerte der auf der Schnittlinie angeordneten Pixel zu dem jeweiligen Zwischenfunktionswert mittels der beschriebenen Zwischenfunktion zusammengefasst.
  • Der Zwischenfunktionswert für eine Schnittebene n für den ersten Aufnahmedatensatz wird hier als Sni und für den zweiten Aufnahmedatensatz als Snj bezeichnet. Für jede Schnittebene n wird ein Unterschiedswert dnij aus dem ersten Zwischenfunktionswert Sni und dem zweiten Zwischenfunktionswert Snj ermittelt. Für insgesamt N Schnittebenen n ergeben sich somit N Unterschiedswerte dnij, wobei n der Indexwert von 1 bis N ist. Für die beiden Aufnahmedatensätze wird ein Gesamtfehlerwert εij durch Zusammenfassung der Unterschiedswerte dnik aller N Schnittebenen berechnet. Damit die Zwischenfunktionswerte nicht für jeden Vergleich der Zwischenfunktionswerte erneut ausgerechnet werden müssen, werden bevorzugt alle denkbaren Zwischenfunktionswerte im Sinne eines Vorverarbeitungsschritts (mit einer vorbestimmten Abtastrate) ausgerechnet und abgespeichert. Die Berechnung erfolgt durch numerische Integration entlang aller denkbaren Schnittlinien auf der Detektorfläche (2D-Radon Transformation) sowie durch konsekutive numerische Ableitung der Linienintegrale in Richtung ihres Abstandsparameters (Abstand bezüglich des Koordinatenursprungs in der Detektorebene).
  • Um nun effizient die insgesamt N Schnittebenen des Körpers festzulegen, werden als Schnittebenen solche ermittelt, die eine gemeinsame Schnittgerade haben. Mit anderen Worten weisen die Schnittebenen eine gemeinsame Schnittgerade haben, nämlich die Verbindungslinie der beiden Quellpositionen, welche eine Strahlungsquelle der Tomographieanlage zu den beiden Aufnahmezeitpunkten aufwies. Somit kann eine neue Schnittebene durch Rotation um diese Achse generiert werden. Aufgrund dieser Konstruktion lässt sich konstatieren, dass sich die Schnittebenen stets paarweise kreuzen. Des Weiteren werden die Schnittebenen derart ausgewählt, dass sich zum jeweiligen Aufnahmezeitpunkt, also innerhalb eines Aufnahmedatensatzes, die Schnittlinien der Schnittebenen auf der Detektorfläche paarweise in zumindest einem Pixel unterscheiden. Durch sich kreuzende Schnittebenen, deren Schnittlinien derart weit auseinander liegen, dass sie sich in zumindest einem Pixel unterscheiden, kann mit geringem Berechnungsaufwand einer Recheneinheit sichergestellt werden, dass sowohl translatorische Bewegungen zumindest eines Teils des Körpers entlang aller drei Raumachsen als auch rotatorische Bewegungen um alle drei Raumachsen zuverlässig detektiert werden können. Eine translatorische oder rotatorische Bewegung innerhalb einer einzelnen Schnittebene ändert nämlich den Zwischenfunktionswert der zugehörigen Schnittebene nicht und kann somit anhand der Schnittebene allein nicht detektiert werden. Indem zwei Schnittebenen sich kreuzen, ist es dem Körper unmöglich, eine Bewegung auszuführen, bei welcher die Zwischenfunktionswerte der Schnittlinien beider Schnittebenen unverändert bleiben.
  • Zu der Erfindung gehören auch Weiterbildungen, durch deren Merkmale sich zusätzliche Vorteile ergeben.
  • Eine Weiterbildung betrifft die Berechnung des Gesamtfehlerwerts εij. Bei dieser Weiterbildung wird bei jedem Paarvergleich eines ersten Aufnahmedatensatzes i und eines zweiten Aufnahmedatensatzes j und für jede Schnittebene n für den Zwischenfunktionswert Sni des ersten Aufnahmedatensatzes i und den Zwischenfunktionswert Snj des zweiten Aufnahmedatensatzes j der Unterschiedswert dnij berechnet zu dnij = F(|Sni – Snj|) mit ││ der Betragsfunktion und F() einer Kompressionsfunktion wobei die Kompressionsfunktion F für positive Werte, insbesondere Werte größer als 1, eine negative mathematische Krümmung (zweite mathematische Ableitung) aufweist. Beispiele für solche Funktionen sind F1(x) = xp F2(x) = tanh(x)
  • Hierbei ist p eine positive Zahl kleiner als 1. Es hat sich herausgestellt, dass mit diesem transformierten Unterschiedswert eine zuverlässige Konvergenz eines Optimierungsverfahrens zum Kompensieren der Bewegung erreicht wird. Insbesondere wird eine Robustheit gegenüber Ausreißern erlangt. Der Gesamtfehlerwert εij berechnet sich zu:
    Figure DE102015218596A1_0002
  • Der Gesamtfehlerwert εij beschreibt also für alle Schnittebenen n, mit n = 1 ... N, die Unterschiedswerte dnij. Bewegt sich der Körper nicht, so ist|Sni – Snj| minimal, da nur noch der Einfluss anderer Störquellen vorliegt (Bildfehler, numerische Fehler). Eine beliebige Bewegung des Körpers zwischen den Aufnahmezeitpunkten des ersten Aufnahmedatensatzes i und des zweiten Aufnahmedatensatzes j erzeugt in zumindest einer der Schnittebenen n eine Veränderung des Zwischenfunktionswerts in den zugehörigen Schnittlinien der beiden Aufnahmedatensätze i und j.
  • Eine Weiterbildung ermöglicht es, auf der Grundlage des Gesamtfehlerwerts εij einen Überblick darüber zu gewinnen, welche Aufnahmedatensätze ähnlich sind, sich also nur geringfügig durch die Bewegung des Körpers unterscheiden, und welche dagegen besonders stark voneinander abweichen. Bei dieser Weiterbildung werden also mehr als zwei Aufnahmedatensätze bereitgestellt. Durch den paarweisen Vergleich immer zweier dieser Aufnahmedatensätze ergibt sich jeweils ein Gesamtfehlerwert εij. Es kann also eine Fehlermatrix der paarweisen Gesamtfehlerwerte εij zumindest zwischen dem ersten Aufnahmedatensatz i einerseits und jedem der übrigen Aufnahmedatensätze andererseits gebildet werden. Mit anderen Worten wird der zweite Aufnahmedatensatz j für unterschiedliche Werte von j gebildet, wobei j damit den Index für die unterschiedlichen Aufnahmedatensätze darstellt. Die Fehlermatrix im Sinne der Erfindung ist als eine Datenstruktur zum Speichern der Gesamtfehlerwerte εij für eine Kombination aus unterschiedlichen Aufnahmedatensätzen i und j zu verstehen. Die Fehlermatrix weist den Vorteil auf, dass anhand Gesamtfehlerwerte ähnliche Körperpositionierungen erkannt oder ausgewählt werden können.
  • Um diese Fehlermatrix vorteilsbringend zu nutzen, sieht eine Weiterbildung vor, dass durch die Aufnahmedatensätze ein sich in dem Körper periodisch bewegendes Organ, beispielsweise ein Herz, aus mehreren Projektionswinkeln und zu unterschiedlichen Phasen der periodischen Bewegung abgebildet wird. Da die Aufnahmedatensätze das Organ zu unterschiedlichen Phasen der periodischen Bewegung abbilden, lässt sich auf der Grundlage aller Aufnahmedatensätze keine scharfe Abbildung des Organs als 3D-Modell berechnen. Hierzu dürfen nur solche Aufnahmedatensätze verwendet werden, die das Organ in derselben Phase der periodischen Bewegung abbilden. Hierbei ist es aber dennoch nötig, das Organ aus unterschiedlichen Projektionswinkeln abgebildet vorliegen zu haben, damit das 3D-Modell überhaupt berechnet werden kann. Entsprechend wird anhand der Fehlermatrix aus den Aufnahmedatensätzen eine konsistente Teilmenge der Aufnahmedatensätze ermittelt, innerhalb welcher die Aufnahmedatensätze paarweise miteinander einen geringeren Gesamtfehlerwert aufweisen als jeder Aufnahmedatensatz der Teilmenge mit jedem der Aufnahmedatensätze außerhalb der Teilmenge. Mit dieser Ermittlungsvorschrift werden also anhand der Fehlermatrix all diejenigen Aufnahmedatensätze ermittelt, welche das Organ in derselben Phase der Bewegung darstellen. Hierbei werden die Aufnahmedatensätze derart ausgewählt, dass das Organ aus unterschiedlichen Projektionswinkeln dargestellt wird. Anhand der Teilmenge wird dann das graphische 3D-Modell des Organs rekonstruiert. Hierdurch ergibt sich der Vorteil, dass das Organ, also beispielsweise ein Herz, in dem 3D-Modell scharf oder präzise abgebildet ist und hierbei eine bestimmte Phase der periodischen Bewegung abgebildet wird. Im Stand der Technik wird zum Ermitteln der Phase beispielsweise ein EKG (Elektrokardiogramm) zum Detektieren der Bewegungsphasen eines Herzens benötigt. Dies weist aber den Nachteil auf, dass bei unregelmäßiger Herzaktivität die Zuordnung des EKG zu den Aufnahmedatensätzen schwierig ist. Dies wird vorliegend mittels der Bildung der Teilmenge verhindert, da diese Ausführungsform nicht von einer gemessenen Herzaktivität abhängig ist.
  • Die Fehlermatrix lässt sich auch dazu nutzen, die Bewegung in den Aufnahmedatensätzen zu kompensieren. Bei dieser Weiterbildung wird ein erster der Aufnahmedatensätze auf der Grundlage von Parameterdaten für eine Translation und/oder eine Rotation des Körpers mit den übrigen Aufnahmedatensätzen geometrisch registriert. Eine solche geometrische Registrierung ist an sich aus dem Stand der Technik bekannt. Sie benötigt als Parameterdaten die Position des Körpers sowie die Position der Strahlungsquelle und der Detektorfläche der Tomographieanlage. Hieraus kann eine relative räumliche Anordnung der Tomographieanlage zu dem Körper ermittelt werden und hierdurch korrespondierende Pixel zweier Aufnahmedatensätze ermittelt werden. Bewegt sich zwischen den Aufnahmezeitpunkten der Aufnahmedatensätze allerdings der Körper, so ist eine Bewegungskorrektur ΔP der Körperposition P nötig. Das Ermitteln dieser Bewegungskorrektur ΔP stellt die Registrierung dar. Die Parameterdaten für die Bewegungskorrektur ΔP werden hierbei iterativ mittels einer jeweiligen Wiederholung des Paarvergleichs verändert, bis eine Kombination der Gesamtfehlerwerte der Fehlermatrix ein vorbestimmtes Optimierungskriterium erfüllt. Die Kombination der Gesamtfehlerwerte stellt ein Redundanzmaß oder Konsistenzmaß dar. Das Optimierungskriterium kann beispielsweise besagen, dass die Kombination der Gesamtfehlerwerte kleiner als ein vorbestimmter Schwellenwert sein muss. Durch die Weiterbildung ergibt sich der Vorteil, dass die Bewegungskorrektur ΔP nicht nur zwischen dem ersten Aufnahmedatensatz i und einem einzelnen zweiten Aufnahmedatensatz j durchgeführt wird, sondern der Aufnahmedatensatz i in Bezug auf mehrere „zweite“ Aufnahmedatensätze abgeglichen wird.
  • Um die Parameterdaten für die Bewegungskorrektur ΔP zu ermitteln, wird gemäß einer Weiterbildung ein Simplex-Algorithmus zum gemeinsamen Verändern der Parameterdaten verwendet. Hierdurch ergibt sich der Vorteil, dass alle Parameterdaten, also die Veränderung der Translation in mehrere Raumrichtungen und der Rotation um mehrere Raumachsen, in einem einzigen iterativen Korrekturverfahren durchgeführt werden können. Anders als im Stand der Technik ist also kein nacheinander Anpassen der einzelnen Parameterdaten nötig.
  • Eine Weiterbildung nutzt zur Berechnung der Gesamtfehlerwerte der Fehlermatrix die oben beschriebene Summe. Alternativ dazu sieht eine Weiterbildung vor, dass die Kombination der Gesamtfehlerwerte als eine Transinformation der Zwischenfunktionswerte berechnet wird. Hierdurch ergibt sich der Vorteil, dass man nicht auf die Berechnung der Differenzen zwischen den Zwischenfunktionswerten Sni und Snj angewiesen ist. Die Berechnung solcher Differenzen macht den Gesamtfehlerwert empfindlich gegenüber Ausreißern.
  • Eine Weiterbildung nutzt die Registrierung von Aufnahmedatensätzen im Zusammenhang mit einer Angiographie. Bei dieser Weiterbildung wird in dem ersten Aufnahmedatensatz der Körper vor einer Kontrastmittelinfusion und in den übrigen Aufnahmedatensätze der Körper während der Kontrastmittelinfusion abgebildet. Der erste Aufnahmedatensatz wird mit den übrigen Aufnahmedatensätzen in der beschriebenen Weise registriert und nach der Registrierung jeweils zum Subtrahieren von Gewebeinformationen verwendet. Hierdurch wird eine jeweilige Abbildung eines Kontrastmittelmaterials oder eines Kontrastmittelbolus des Kontrastmittels erzeugt. Somit kann auf der Grundlage der Subtraktionsbilder ein 3D-Modell des Kontrastmittelbolus allein ohne das umgebende Körpergewebe erzeugt werden. Durch ermitteln von 3D-Modellen für mehrere Phasen kann auch eine graphische Animation, d.h. eine 4D-Darstellung, bereitgestellt werden.
  • Eine Weiterbildung sieht vor, dass auf der Grundlage des Gesamtfehlerwerts eine Extrapolation eines Projektdatensatzes durchgeführt wird. Diese Weiterbildung geht davon aus, dass in dem ersten Aufnahmedatensatz der Körper nur unvollständig abgebildet ist und Pixelwerte eines fehlenden Teils des Körpers durch eine Extrapolationseinheit ergänzt werden. Eine solche Extrapolationseinheit ist an sich aus dem Stand der Technik bekannt. Es kann sich hierbei z.B. um ein Programmmodul handeln. Die teilweise Abbildung des Körpers beziehungsweise das Fehlen eines Teils des Körpers kann dadurch verursacht sein, dass die Abbildung des Körpers über den Rand der Detektorfläche hinaus ragt. Um die fehlenden Pixelwerte zu ergänzen, kann beispielsweise angenommen werden, dass der Körper eine Ellipsenform aufweist und hierdurch die Form des abgeschnittenen Teils ergänzt werden kann. Problem ist nun, dass innerhalb beispielsweise der Körperform auch ergänzt werden muss, ob es sich bei dem fehlenden Teil des Körpers z.B. um Fettgewebe oder Muskelgewebe oder Knochen handelt. Hierzu kann die Extrapolationseinheit den Rand der Abbildung in Richtung des fehlenden Teils extrapolieren. Dabei sind Parameter einzustellen, wie beispielsweise Parameter für den Fettanteil und den Anteil an Muskelgewebe. Zumindest ein solcher Parameter der Extrapolationseinheit wird derart eingestellt, dass eine Kombination der Gesamtfehlerwerte der Fehlermatrix ein vorbestimmtes Optimierungskriterium erfüllt. Insbesondere wird die Kombination der Gesamtfehlerwerte minimiert. Die Kombination der Gesamtfehlerwerte kann beispielsweise auf der Grundlage der Summe der Gesamtfehlerwerte gebildet sein. Hierdurch ergibt sich wieder ein Konsistenzmaß. Durch die Weiterbildung ergibt sich der Vorteil, dass nicht ausschließlich auf Grundlage von Modellannahmen für den fehlenden Teil des Körpers (beispielsweise Ellipsenform), sondern auch auf Grundlage der spezifischen Pixelwerte der übrigen Aufnahmedatensätze die Extrapolationseinheit betrieben werden kann. Somit ergibt sich eine genauere Rekonstruktion des fehlenden Teils und weniger Störungen am Rand des im nichtabgeschnittenen Bereich.
  • Eine Weiterbildung des Verfahrens ermöglicht es, in einem Aufnahmedatensatz einen Fehlerbereich zu detektieren, wie er sich beispielsweise ergibt, wenn ein störendes Objekt, beispielsweise ein Schlauch oder ein Anschlussstück, zwischen der Strahlungsquelle und der Detektorfläche der Tomographieanlage angeordnet ist. Dies kann nur für einige der Projektionswinkel der Fall sein, wenn der Schlauch oder ein Stecker beispielsweise lose an der Tomographieanlage hängt. Ein solcher Fehlerbereich, der sich ausschließlich über eine Teilfläche der Detektorfläche erstreckt, kann mittels der Weiterbildung in zumindest einem der Aufnahmedatensätze sogar lokalisiert werden, indem bei einem jeweiligen Paarvergleich dieses Aufnahmedatensatzes mit zumindest einem anderen der Aufnahmedatensätze nicht einfach nur der Gesamtfehlerwert ermittelt wird, sondern ein Anteil zumindest eines Unterschiedswerts dnij der Zwischenfunktionswerte an dem Gesamtfehlerwert εij ermittelt wird. Es wird also der Einfluss der einzelnen Schnittlinien auf den Gesamtfehlerwert εij ermittelt. In Abhängigkeit von dem Anteil, den der zu einer Schnittlinie gebildete Unterschiedswert dnij am Gesamtfehlerwert εij hat, wird eine Lage des Fehlerbereichs auf der Detektorfläche ermittelt. Eine Schnittlinie, die den Fehlerbereich kreuzt, ergibt einen größeren Unterschiedswert als eine Schnittlinie, die außerhalb des Fehlerbereichs verläuft. Hierdurch kann die Lage des Fehlerbereichs auf der Detektorfläche ermittelt werden.
  • Eine Weiterbildung sieht vor, dass eine Detector-Response-Funktion (Detektor-Antwortfunktion) ermittelt wird. Die Detector-Response-Funktion beschreibt eine Zuordnung der Strahlungsintensität an einem Pixel zu dem daraus gebildeten Pixelwert. Idealerweise sollte die Detector-Response-Funktion eine lineare Funktion der Intensität sein. Bei der Weiterbildung des Verfahrens wird durch die Aufnahmedatensätze jeweils ein Kalibrierphantom abgebildet. Mit anderen Worten werden die Aufnahmedatensätze erzeugt, während sich ein Kalibrierphantom in der Tomographieanlage befindet. Durch Einstellen einer Kompensationsfunktion für die Detector-Response-Funktion der Pixelsensoren der Detektorfläche werden die Gesamtfehlerwerte aller Paarvergleiche der Aufnahmedatensätze derart eingestellt, dass ein vorbestimmtes Optimierungskriterium für die Response-Funktion erfüllt wird. Das Optimierungskriterium kann beispielsweise besagen, dass die Detector-Response-Funktion in Kombination mit der nachgeschalteten Kompensationsfunktion eine lineare Funktion ergeben soll.
  • Zu der Erfindung gehört auch die beschriebene Tomographieanlage mit einer Projektionseinrichtung zum Erzeugen von jeweils einem Aufnahmedatensatz eines Körpers zu einem vorgebbaren Aufnahmezeitpunkt und einem vorgebbaren Projektionswinkel. Die Tomographieanlage weist eine Recheneinrichtung auf, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Hierdurch ergibt sich der Vorteil, dass zu den Aufnahmedatensätzen angegeben werden kann, ob sich der Körper zwischen den Aufnahmezeitpunkten bewegt hat. Die Recheneinrichtung kann auf der Grundlage zumindest eines Mikroprozessors bereitgestellt werden. Insbesondere eignen sich graphische Prozessoreinheiten (GPUs – graphical processing units).
  • Eine Weiterbildung der Tomographieanlage sieht vor, dass die Projektionseinrichtung einen C-Bogen mit einem Flachdetektor aufweist, der die Detektorfläche bildet. Die Projektionseinrichtung kann beispielsweise als Röntgen-C-Bogen ausgestaltet sein. Insbesondere kann die Tomographieanlage mobil ausgestaltet sein, also beispielsweise rollbar sein, so dass sie auch in einem Operationssaal verwendet werden kann.
  • Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt:
  • 1 eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Tomographieanlage,
  • 2 eine Skizze zur Veranschaulichung der Berechnung von Zwischenfunktionswerten, und
  • 3 eine Skizze zur Veranschaulichung einer Fehlermatrix.
  • Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
  • 1 zeigt eine Tomographieanlage 1. Die Tomographieanlage 1 ist insbesondere als Computertomograph ausgestaltet. Bei der Tomographieanlage 1 kann es sich beispielsweise um eine Röntgen-C-Bogen-Anlage handeln. Dargestellt sind eine Projektionseinrichtung 2 und eine Recheneinrichtung 3 sowie eine Anzeigeeinrichtung 4. Die Projektionseinrichtung 2 kann eine Strahlungsquelle 5 und einen Detektor 6 für die Strahlungsquelle 5 aufweisen. Die Strahlungsquelle 5 kann beispielsweise eine Röntgenstrahlen- oder Positronenstrahlungsquelle sein. Der Detektor 6 kann beispielsweise als Flachdetektor ausgestaltet sein. Zum Detektieren der Strahlung kann der Detektor Pixelsensoren 7 aufweisen. Die Pixelsensoren 7 bilden insgesamt eine Detektorfläche 8, auf welcher die Strahlung der Strahlungsquelle 5 empfangen wird. Die Strahlungsquelle 5 kann zu einem jeweiligen Aufnahmezeitpunkt t1, t2 durch die Recheneinrichtung 3 aktiviert werden. Sie durchstrahlt dann einen Körper 9, z.B. eine Patienten oder eine Materialprobe. Die Pixelsensoren 7 umfassen jeweils einen Pixelwert 10. Die Pixelwerte 10 für den jeweiligen Aufnahmezeitpunkt t1, t2 werden zu einem jeweiligen Aufnahmedatensatz 11 zusammengefasst, der an die Recheneinrichtung 3 übertragen werden kann. Die veranschaulichten Aufnahmezeitpunkte t1, t2 sind nur beispielhaft. Es können mehr als die beiden veranschaulichten Aufnahmezeitpunkte vorgesehen sein, beispielsweise 100 Aufnahmezeitpunkte.
  • Zwischen den Aufnahmezeitpunkten t1, t2 können die Strahlungsquelle 5 und der Detektor 6 entlang einer jeweiligen Bewegungsbahn oder Trajektorie 12, 13 beispielsweise mittels eines C-Bogens 14 und einer Antriebseinheit 15 um den Körper 9 bewegt werden, sodass zu den Aufnahmezeitpunkten t1, t2 die Quelle 5 den Körper 9 aus einem jeweils anderen Projektionswinkel w1, w2 durchstrahlt. Zu jedem Projektionswinkel w1, w2 ergibt sich dann jeweils einer der Aufnahmedatensätze 11.
  • Die Recheneinrichtung 3 kann auf der Grundlage aller Aufnahmedatensätze 11 ein 3D-Modell 16 berechnen und das 3D-Modell 16 auf der Anzeigeeinrichtung 4 darstellen. Die Anzeigeeinrichtung 4 kann beispielsweise ein Bildschirm sein. Das 3D-Modell 16 kann beispielsweise ein Organ des Körpers 9, beispielsweise ein Herz, abbilden oder repräsentieren. Anstelle des 3D-Modells 16 können auch Tomographien oder Schnittbilder des Körpers 9 berechnet werden. Um aus den Aufnahmedatensätzen 11 die künstlichen Schnittbilder oder das 3D-Modell 16 zu berechnen, ist beispielsweise mittels des Verfahrens der Rückprojektion aus den Pixelwerten 10 für einzelne Körperelemente 17 jeweils zu berechnen, welche Dämpfungseigenschaft oder Absorptionseigenschaft bezüglich der Strahlung der Strahlungsquelle 5 die Körperelemente 17 aufweisen. Die Körperelemente 17 können durch die Recheneinrichtung 7 beispielsweise durch einzelne Volumenelemente oder kurz Voxel repräsentiert sein.
  • Hierzu ist eine genaue Lage der einzelnen Körperelemente 7 bezüglich der Strahlungsquelle 5 und des Detektors 6 zu jedem Aufnahmezeitpunkt t1, t2 benötigt. Falls sich der Körper 9 oder die Körperelemente 7 zwischen den Aufnahmezeitpunkten t1, t2 durch eine Bewegung B bewegen, trifft die Annahme der Lage der Körperelemente 17 nicht mehr zu. Bei der Bewegung B kann es sich um eine Translation und/oder Rotation handeln. Um die Bewegung B zu kompensieren, kann durch die Recheneinrichtung 3 für jeden Aufnahmedatensatz 11 Parameterdaten 18 für einen Bewegungsausgleich oder eine Bewegungskorrektur ΔP ermittelt werden.
  • Durch die Recheneinrichtung 3 kann anhand der Aufnahmedatensätze 11 ermittelt werden, ob sich der Körper 9 oder ein Teil des Körpers 9, beispielsweise ein inneres Organ, zwischen den Aufnahmezeitpunkten t1, t2 mit der Bewegung B bewegt hat. Die Recheneinrichtung 3 kann hierzu beispielsweise durch einen Personalcomputer gebildet sein.
  • Des Weiteren kann Veränderung der Pixelzuordnung durch die Bewegung B mittels der Parameterdaten der Bewegungskorrektur ΔP ausgeglichen werden. Hierzu werden die Parameterdaten 18 iterativ auf der Grundlage eines Optimierungskriteriums und beispielsweise mittels des Simplex-Verfahrens verändert und anschließend auf Grundlage der Parameterdaten 18 die Bewegung für einen Aufnahmedatensatz 11 kompensiert und der kompensierte Aufnahmedatensatz mit den übrigen Aufnahmedatensätzen verglichen.
  • Um für das Optimierungskriterium eine iterative Optimierung zu ermöglichen, ist ein Fehlermaß nötig, das bei der Tomographieanlage 1 auf einer Berechnung von Zwischenfunktionswerten beruht. Dies ist im Folgenden anhand von 2 veranschaulicht.
  • 2 zeigt beispielhaft für die beiden Aufnahmezeitpunkte t1, t2 jeweils die Lage der Strahlungsquelle 5 und des Detektors 6. Der Körper 9 ist durch eine Kugel repräsentiert. Eine jeweilige Abbildung 9’ des Körpers 9 auf der Detektorfläche 8 ist angedeutet. Beispielhaft ist veranschaulicht, wie ein Strahl 19 einer Strahlung der Strahlungsquelle 5 durch einzelne Körperelemente 17 des Körpers 9 dringt. Danach trifft er auf ein Pixel 20, das heißt einen einzelnen Pixelwertsensor 7. Zu dem Pixel 20 wird ein Pixelwert 10 ermittelt. Der Pixelwert 10 spiegelt den Einfluss des jeweiligen Dämpfungswerts wider, die jedes Körperelement 17 aufweist.
  • 2 veranschaulicht des Weiteren das Prinzip eines Paarvergleichs 21 zwischen zwei Aufnahmedatensätzen 11, wobei hier der Anschaulichkeit halber von einem Aufnahmedatensatz i zum Aufnahmezeitpunkt t1 und einem Aufnahmedatensatz j zum Aufnahmezeitpunkt t2 gesprochen wird. Für den Paarvergleich 21 werden mehrere Schnittebenen 22, 23 des Körpers 9 definiert. Allgemein werden N Schnittebenen definiert, die dann einen Index n aufweisen können, was in 2 mit dem Index n = 1 und n = 2 für die beiden Schnittebenen 22, 23 veranschaulicht ist. N kann beispielsweise zwischen 500 und 12000 betragen. Die Schnittebenen 22, 23 schneiden sich in einer Achse 24, um die beispielsweise eine prototypische Schnittebene rotiert werden kann, um die Schnittebenen 22, 23 zu definieren. Die Schnittebene 22 schneidet den Detektor 6 zu den jeweiligen Aufnahmezeitpunkten t1, t2 jeweils entlang von Schnittlinien 22‘, die Schnittebene 23 tut es entlang der Schnittlinien 23’. Ein Abstand A der Schnittlinien 22’, 23’ zu jedem Aufnahmezeitpunkt t1, t2 ist derart gewählt, dass die Schnittlinien 22’, 23’ zumindest ein oder einige unterschiedliche Pixel schneiden. Hierdurch unterscheiden sich die Schnittlinien 22‘, 23‘ für jeden Aufnahmezeitpunkt t1, t2 um wenigstens ein Pixel 20.
  • Die Pixelwerte 10 aller Pixel 20 auf einer der Schnittlinien 22‘, 23‘ eines Aufnahmedatensatzes i, j können mittels einer Zwischenfunktion zu einem Zwischenfunktionswert Sni, Snj zusammengefasst werden, wie dies aus dem Stand der Technik bekannt ist. Jeder Zwischenfunktionswert Sni, Snj repräsentiert dabei die Gesamtheit 25, 26 aller Körperelemente 17, die innerhalb der jeweiligen Schnittebene 22, 23 liegen. Daher muss sich für alle Schnittlinien 22‘ derselben Schnittebene 22 derselbe Zwischenfunktionswert Sni ergeben. Ist dies nicht der Fall, so befinden sich nicht dieselben Körperelemente 17 in der Schnittebene 22 zu den beiden Aufnahmezeitpunkten t1, t2. Gleiches gilt für die Zwischenfunktionswerte Snj aller Schnittlinie Snj.
  • Um nun die Zwischenfunktionswerte Sni, Snj für einen Paarvergleich 21 zweier Aufnahmedatensätze i, j für alle N Schnittebenen 22, 23 zusammenzufassen, kann folgender Gesamtfehlerwert εij durch die Recheneinrichtung 3 berechnet werden:
    Figure DE102015218596A1_0003
  • Der Wert p kann hierbei kleiner als 1 gewählt werden, beispielsweise p = 0,3. p kann aber auch beispielsweise den Wert 2 aufweisen, wodurch sich der quadratische Fehler ergibt. Letzteres zeigt sich allerdings als weniger robust bei der Optimierung, da der der Fehler durch besonders hohe Zwischenfunktionswerte (insbesondere Ausreißern) dominiert wird. Anstelle der hier nur beispielhaft angeführten Kompressionsfunktion F1 kann auch eine andere Kompressionsfunktion verwendet werden.
  • Führt man den Paarvergleich 21 jeweils für alle vorhandenen Aufnahmedatensätze 11 aus, so ergibt sich eine Fehlermatrix 27, wie sie beispielhaft in 3 dargestellt ist. Möchte man nun beispielsweise zu einem ersten Aufnahmedatensatz i die Ähnlichkeit zu allen übrigen Aufnahmedatensätzen ermitteln, so kann hierzu folgender Konsistenzwert Ei berechnet werden:
    Figure DE102015218596A1_0004
  • Der Konsistenzwert Ei stellte eine Kombination der Gesamtfehlerwerte εij dar.
  • Genauso kann auch für eine Teilmenge T, die jeweils durch mehrere Indizes i definiert ist, ein Konsistenzmaß bezüglich des Rests der Aufnahmedatensätze berechnet werden:
    Figure DE102015218596A1_0005
  • Möchte man nun beispielsweise die Parameterdaten 18 optimieren, so kann man als Bewegungskompensation folgendes definieren:
    Figure DE102015218596A1_0006
    wobei α = [α1, α2, α3] eine Drehung des Körpers um eine Achse α und τ = [τ1, τ2, τ3] eine translatorische Bewegung entlang einer Raumrichtung τ beschreibt. α und τ stellen Parameterdaten der Bewegungskompensation ΔP dar. Ermittelt man nun ΔP und kompensiert hiermit die Bewegung in dem ersten Aufnahmedatensatz i, so kann man anschließend wieder einen Wert für das Konsistenzmaß Ei berechnen und überprüfen, ob sich das Konsistenzmaß verbessert hat, also der Wert Ei verringert worden ist. Hierzu kann das beschriebene Simplex-Verfahren zum gleichzeitigen Optimieren von α und τ verwendet werden.
  • Mittels der Konsistenzmaße Ei oder ET können auch weitere Anwendungen durch die Recheneinrichtung 3 realisiert werden.
  • Eine Anwendung betrifft eine Computertomographie (CT) eines Herzens. Typische 4D-Herz-CTs und 4D-C-Arm-CT-Akquisitionsprotokolle sind EKG-getriggert. Dabei werden mit Hilfe des EKGs Zeitfenster oder Gates oder Messtore zu einzelnen Bewegungsphasen des Herzzyklus definiert. Für jedes Gate wird ein vollständiger Aufnahmedatensatz benötigt, der das Herz aus mehreren Projektionswinkeln w1, w2 abbildet, um das 3D-Modell 16 oder eine Tomographie zu berechnen. Damit kann dann mittels an sich bekannter Verfahren das 3D-Modell 16 rekonstruiert werden. Anstelle oder zusätzlich zu den Gates können die Zwischenfunktionswerte Sni, Snj beispielsweise in der Form der Konsistenzmaße Ei, ET dazu genutzt werden, die optimalen Gates, beispielsweise deren zeitliche Positionierung und deren zeitliche Dauer, zu erkennen, in denen Aufnahmedatensätze 11 besonders konsistent sind. Damit können die Gates so gelegt werden, dass möglichst wenig Herzbewegung innerhalb des Gates vorhanden ist. Beispielsweise lassen sich für die Erzeugung einer Teilmenge der einzelnen Gates sukzessive Aufnahmedatensätze mit dem niedrigsten Konsistenzmaß für die noch fehlenden Projektionswinkel hinzufügen. Somit lassen sich auch konsistente Daten für unregelmäßige Herzaktivitäten generieren, durch welche ein unregelmäßiges EKG erzeugt wird, anhand dessen sich ein Gate nicht oder nur unzuverlässig festlegen lässt. Das Verfahren bietet außerdem die Möglichkeit, die überlagerte Atembewegung mit zu berücksichtigen, da die Wahl des Gates auf die Gesamtbewegung hin optimiert wird.
  • In Erweiterung der beschriebenen Bewegungskompensation kann eine Korrektur der Bewegung auch für Subtraktionsangiographie und Perfusionsmessungen genutzt werden, da es dabei mehrere C-Arm-Rotationen um den Körper 9 gibt, um einen ersten Aufnahmedatensatz als Maske oder Masken-Scan zu erhalten und anschließend weitere Scans für weitere Aufnahmedatensätze nach einer Kontrastmittelinjektion. Ein Scan ist jeweils ein Durchlauf der Projektionseinrichtung, sodass die Trajektorien 12, 13 abgefahren werden. Hierdurch vergeht verhältnismäßig viel Zeit, in welcher es wahrscheinlich ist, dass ein Patient seinen Körper 9 bewegt. Damit wird das Redundanzmaß in Form der Zwischenfunktionswerte Sni, Snj global auf unterschiedliche Durchläufe oder Scans angewendet.
  • Auf der Grundlage der Zwischenfunktionswerte Sni, Snj kann auch eine Korrektur der Akquisitionsgeometrie, das heißt der Geometrie der Projektionseinrichtung 2, für eine Softwarekalibrierung der Tomographieanlage 1 genutzt werden. Dies bietet besonders für den C-Arm die Möglichkeit, dessen geometrische Verformung während der Änderung des Projektionswinkels b1, b2 zu kompensieren. Außerdem sind bei einem C-Arm alternative Trajektorien 12, 13, abweichend von einer Kreisbahn, möglich, bei denen konventionelle Offline-Kalibrationsverfahren versagen. Zudem kann mittels der Zwischenfunktionswerte die Konsistenz von Aufnahmedatensätzen 11 noch robuster bestimmt werden, da diese die gesamte, in den Aufnahmedatensätzen 11 enthaltene Redundanz nutzen können.
  • Das Redundanzmaß in Form der Zwischenfunktionswerte Sni, Snj kann auch für die Korrekturen von Strahlungsaufhärtungseffekten genutzt werden. Auf Grundlage des Redundanzmaßes lassen sich Parameter des für die Strahlungsaufhärtungskorrektur verwendeten Modells optimieren, denn eine genauere Strahlungsaufhärtungskorrektur sollte zur Reduzierung des Konsistenzmaßes führen.
  • Die Verwendung des Redundanzmaßes in Form der Zwischenfunktionswerte Sni, Snj kann auch für Korrekturen der Streustrahlung genutzt werden, indem die für die Streustrahlschätzung verwendeten Faltungskerne optimiert werden, denn ein streustrahlungsfreier Aufnahmedatensatz weist ein geringeres Konsistenzmaß bezüglich der übrigen Aufnahmedatensätze auf als ein Aufnahmedatensatz mit Streustrahlung. Das konkrete Vorgehen kann den Faltungskern schätzen, mit diesem dann einen Aufnahmedatensatz entfalten (deconvolution) und anschließend das Konsistenzmaß berechnen. Auf diese Weise lässt sich durch Variation des Faltungskerns das Konsistenzmaß minimieren und die Streustrahlschätzung optimieren.
  • Auf der Grundlage des Konsistenzmaßes Ei, ET kann auch eine konsistente Extrapolation von abgeschnittenen Projektionen (Trunkationskorrektur) erreicht werden, denn durch Trunkation erhöht sich die Inkonsistenz. Dabei können Informationen über trunkierte Projektionen, also fehlende Teile der Abbildungen 9‘ des Körpers 9, aus redundanten Projektionsdaten (Projektionen aus Richtungen, die den trunkierten Bereich beinhalten) ermittelt werden. Dabei ist insbesondere eine Optimierung von Extrapolationsdaten beziehungsweise Extrapolationsfunktionen möglich. Extrapolationsfunktionen können parametrisiert werden, zum Beispiel die Breite und/oder die Abklingeigenschaften. Solche Parameter können anschließend durch Minimierung des Redundanzmaßes Ei, ET optimiert werden.
  • Zwischenfunktionswerte Sni, Snj können auch für die Lokalisierung von Bildfehlern genutzt werden. Durch die geometrische Auswertung der einzelnen Schnittgeraden 22‘, 23‘ durch verschiedene Detektorebenen mit gemeinsamen redundanten Schnittebenen 22, 23 kann eine erhöhte Inkonsistenz der einzelnen Schnittgeraden 22’, 23’ ermittelt werden und hieraus auf die Lage von Bildfehlern rückgeschlossen werden, das heißt Bildfehlerbereiche können lokalisiert werden und optional korrigiert werden. Dazu können Schnittpunkte der Schnittgeraden mit besonders hohem Unterschiedswert dnij ausgewertet werden. Bildfehler können insbesondere Artefakte oder temporär im Bildbereich veränderliche Objekte sein, zum Beispiel Katheder, Geräte und/oder Metalle.
  • Mittels des Redundanzmaßes kann auch eine Korrektur der Detector-Response-Funktion erreicht werden.
  • Da die beschriebenen Korrekturen insbesondere durch die Recheneinrichtung 3 während eines Einsatzes der Tomographieanlage 1 durchgeführt werden können, eignet sich die Tomographieanlage 1 auch als mobile Anlage, die beispielsweise in einen Operationssaal gerollt werden kann und dort temporär für eine Operation genutzt werden kann. Die fahrbare und damit instabilere Konstruktion der Tomographieanlage 1 kann auf Grundlage des Verfahrens korrigiert und/oder kompensiert werden.
  • Insgesamt zeigt das Beispiel, wie durch die Erfindung ein Redundanzmaß zur Analyse der Konsistenz von Projektionsdaten zur Verbesserung klinischer Anwendungen von 3D-CT (3D-Rekonstruktion) und 4D-CT (3D-CT mit zeitlicher Animation) und FDCT (Flachdetektor-CT) genutzt werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2490180 A1 [0004]
    • WO 2014/108237 A1 [0005]

Claims (13)

  1. Verfahren zum Erfassen einer Bewegung (B) zumindest eines Teils eines Körpers (9) zwischen Aufnahmezeitpunkten (t1, t2) zumindest zweier Aufnahmedatensätze (11), wobei in einem jeweiligen Paarvergleich (21) eines ersten (i) und eines zweiten (j) der Aufnahmedatensätze (11): a) für mehrere virtuelle Schnittebenen (22, 23) des Körpers (9), von denen jede die Detektorfläche (8) zum jeweiligen Aufnahmezeitpunkt (t1, t2) entlang einer Schnittlinie (22’, 23’) schneidet, anhand des ersten Aufnahmedatensatzes (i) ein erster Zwischenfunktionswert (Sni) von Dämpfungswerten aller in der Schnittebene (22, 23) liegenden Körperelemente (17) und anhand des zweiten Aufnahmedatensatzes (j) ein zweiter Zwischenfunktionswert (Snj) der Dämpfungswerte ermittelt wird, und b) für jede Schnittebene (22, 23) aus den Zwischenfunktionswerten (Sni, Snj) ein Unterschiedswert ermittelt wird, c) für die beiden Aufnahmedatensätze (i, j) ein Gesamtfehlerwert (εij) durch Zusammenfassen der Unterschiedswerte aller Schnittebenen (22, 23) berechnet wird, dadurch gekennzeichnet, dass für jeden Paarvergleich (21) die virtuellen Schnittebenen (22, 23) eine gemeinsame Schnittgerade haben und sich für den jeweiligen Aufnahmezeitpunkt (t1, t2) die Schnittlinien (22’, 23’) paarweise in zumindest einem Pixel (20) unterschieden.
  2. Verfahren nach Anspruch 1, wobei bei jedem Paarvergleich (21) und für jede Schnittebene n für den Zwischenfunktionswert Sni des ersten Aufnahmedatensatzes i und den Zwischenfunktionswert Snj des zweiten Aufnahmedatensatzes j der Unterschiedswert dnij zu dnij = F(|Sni – Snj|) mit || der Betragsfunktion und F() einer vorbestimmten Kompressionsfunktion, wobei die Kompressionsfunktion F zumindest für Werte größer als 1 eine negative mathematische Krümmung aufweist, und der Gesamtfehlerwert εij zu
    Figure DE102015218596A1_0007
    berechnet wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei mehr als zwei Aufnahmedatensätze (11) bereitgestellt werden und eine Fehlermatrix (27) der paarweisen Gesamtfehlerwerte (εij) zumindest zwischen dem ersten Aufnahmedatensatz (i) einerseits und jedem der übrigen Aufnahmedatensätze (j) andererseits gebildet wird.
  4. Verfahren nach Anspruch 3, wobei durch die Aufnahmedatensätze (11) ein sich in dem Körper (9) periodisch bewegendes Organ aus mehreren Projektionswinkeln (w1, w2) und zu unterschiedlichen Phasen der periodischen Bewegung abgebildet wird und anhand der Fehlermatrix (27) aus den Aufnahmedatensätzen (11) eine konsistente Teilmenge ermittelt wird, innerhalb welcher die Aufnahmedatensätze (11) paarweise miteinander einen geringeren Gesamtfehlerwert (εij) aufweisen als jeder Aufnahmedatensatz (11) der Teilmenge mit jedem der Aufnahmedatensätze (11) außerhalb der Teilmenge, wobei in den Aufnahmedatensätzen (11) der Teilmenge das Organ in derselben Phase der Bewegung, aber aus unterschiedlichen Projektionswinkeln (w1, w2) dargestellt wird und anhand der Teilmenge ein graphisches 3D-Modell (16) des Organs gebildet wird.
  5. Verfahren nach Anspruch 3, wobei ein erster (i) der Aufnahmedatensätze (11) auf der Grundlage von Parameterdaten (18) für eine Translation und/oder eine Rotation des Körpers (9) mit den übrigen Aufnahmedatensätzen (j) geometrisch registriert wird und die Parameterdaten (18) iterativ mittels einer jeweiligen Wiederholung des Paarvergleichs (21) verändert werden, bis eine Kombination der Gesamtfehlerwerte der Fehlermatrix (27) ein vorbestimmtes Optimierungskriterium erfüllt.
  6. Verfahren nach Anspruch 5, wobei die Parameterdaten (18) gemeinsam mittels eines Simplex-Algorithmus verändert werden.
  7. Verfahren nach Anspruch 5 oder 6, wobei die Kombination der Gesamtfehlerwerte als eine Transinformation der Zwischenfunktionswerte (Sni, Snj) berechnet wird.
  8. Verfahren nach einem der Ansprüche 5 bis 7, wobei in dem ersten Aufnahmedatensatz (i) der Körper (9) vor einer Kontrastmittelinfusion und in den übrigen Aufnahmedatensätzen (j) den Körper (9) während der Kontrastmittelinfusion abgebildet ist und der erste Aufnahmedatensatz (i) nach der Registrierung zum Subtrahieren von Gewebeinformationen verwendet und hierdurch ein jeweilige Abbildung eines Kontrastmittelbolus erzeugt wird.
  9. Verfahren nach Anspruch 3, wobei in dem ersten Aufnahmedatensatz (i) der Körper (9) nur unvollständig abgebildet ist und Pixelwerte (10) eines fehlenden Teils des Körpers (9) durch eine Extrapolationseinheit ergänzt werden, wobei zumindest ein Parameter der Extrapolationseinheit derart eingestellt wird, dass eine Kombination der Gesamtfehlerwerte der Fehlermatrix (27) ein vorbestimmtes Optimierungskriterium erfüllt.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei in zumindest einem der Aufnahmedatensätze (i) jeweils ein Fehlerbereich, der sich ausschließlich über eine Teilfläche der Detektorfläche (8) erstreckt, lokalisiert wird, indem bei einem jeweiligen Paarvergleich (21) des Aufnahmedatensatzes (i) mit zumindest einem anderen der Aufnahmedatensätze (j) ein Anteil zumindest eines Unterschiedswerts an dem Gesamtfehlerwert (εij) ermittelt wird und in Abhängigkeit von dem Anteil eine Lage des Fehlerbereichs anhand der zu dem Unterschiedswert gehörigen Schnittlinie (22’, 23’) auf der Detektorfläche (8) ermittelt wird.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch die Aufnahmedatensätze (11) jeweils ein Kalibrierphantom abgebildet ist und durch Einstellen einer Kompensationsfunktion für eine Detector-Response-Funktion von Pixelsensoren (7) der Detektorfläche (8) die Gesamtfehlerwerte (εij) der Paarvergleiche (21) der Aufnahmedatensätze (11) derart eingestellt werden, dass ein vorbestimmtes Optimierungskriterium für die Detector-Response-Funktion erfüllt wird.
  12. Tomographieanlage (1) mit einer Projektionseinrichtung (2) zum Erzeugen von jeweils einem Aufnahmedatensatz (11) eines Körpers (9) zu einem vorgebbaren Aufnahmezeitpunkt (t1, t2) und einem vorgebbaren Projektionswinkels (w1, w2) und mit einer Recheneinrichtung (3), die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  13. Tomographieanlage (1) nach Anspruch 12, wobei die Projektionseinrichtung (2) einen C-Bogen (14) mit einem eine Detektorfläche (8) aufweisenden Flachdetektor (6) aufweist.
DE102015218596.6A 2015-09-28 2015-09-28 Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen Pending DE102015218596A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015218596.6A DE102015218596A1 (de) 2015-09-28 2015-09-28 Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen
US15/275,773 US10039512B2 (en) 2015-09-28 2016-09-26 Image quality in computed tomography using redundant information in production data sets

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015218596.6A DE102015218596A1 (de) 2015-09-28 2015-09-28 Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen

Publications (1)

Publication Number Publication Date
DE102015218596A1 true DE102015218596A1 (de) 2017-03-30

Family

ID=58281741

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015218596.6A Pending DE102015218596A1 (de) 2015-09-28 2015-09-28 Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen

Country Status (2)

Country Link
US (1) US10039512B2 (de)
DE (1) DE102015218596A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017223603A1 (de) * 2017-12-21 2019-06-27 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion eines dreidimensionalen, mit einer Biplan-Röntgeneinrichtung aufgenommenen Bilddatensatzes, Biplan-Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102022209764A1 (de) 2022-09-16 2024-03-21 Siemens Healthcare Gmbh Verfahren zum Erkennen einer Änderung einer Trunkierung, Steuereinrichtung, CT-Vorrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10825210B2 (en) * 2017-11-30 2020-11-03 Canon Medical Systems Corporation Method and apparatus for projection domain truncation correction in computed-tomography (CT)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2490180A1 (de) 2011-02-17 2012-08-22 Kabushiki Kaisha Toshiba Vorrichtung und Verfahren zur medizinischen Bildgebung
WO2014108237A1 (de) 2013-01-11 2014-07-17 Siemens Aktiengesellschaft Verfahren und vorrichtung zur dejustagekorrektur für bildgebungsverfahren

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3999179B2 (ja) * 2003-09-09 2007-10-31 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 放射線断層撮影装置
US7502440B2 (en) * 2005-04-05 2009-03-10 Kabushiki Toshiba Radiodiagnostic apparatus
US8098916B2 (en) * 2007-10-30 2012-01-17 General Electric Company System and method for image-based attenuation correction of PET/SPECT images
JP5444718B2 (ja) * 2009-01-08 2014-03-19 オムロン株式会社 検査方法、検査装置および検査用プログラム
JP2010201157A (ja) * 2009-02-06 2010-09-16 Toshiba Corp 放射線診断装置、x線コンピュータ断層撮影装置および画像処理方法
DE102011076855B4 (de) * 2011-06-01 2017-12-07 Siemens Healthcare Gmbh Verfahren zur funktionalen Darstellung und Lokalisierung einer arteriovenösen Fehlbildung, rotierbares Bildgebungssystem und Kombination aus einem rotierbaren Bildgebungssystem und einer Bestrahlungseinheit
DE102012222714A1 (de) * 2012-12-11 2014-06-12 Siemens Aktiengesellschaft Ermittlung eines Mehrfachenergie-Bildes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2490180A1 (de) 2011-02-17 2012-08-22 Kabushiki Kaisha Toshiba Vorrichtung und Verfahren zur medizinischen Bildgebung
WO2014108237A1 (de) 2013-01-11 2014-07-17 Siemens Aktiengesellschaft Verfahren und vorrichtung zur dejustagekorrektur für bildgebungsverfahren

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KYRIAKOU, Y., et al. Simultaneous misalignment correction for approximate circular cone-beam computed tomography. Physics in medicine and biology, 2008, 53. Jg., Nr. 22, S. 6267
MAES, Frederik, et al. Multimodality image registration by maximization of mutual information. Medical Imaging, IEEE Transactions on, 1997, 16. Jg., Nr. 2, S. 187-198
YU, Hengyong; WANG, Ge. Data consistency based rigid motion artifact reduction in fan-beam CT. Medical Imaging, IEEE Transactions on, 2007, 26. Jg., Nr. 2, S. 249-260

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017223603A1 (de) * 2017-12-21 2019-06-27 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion eines dreidimensionalen, mit einer Biplan-Röntgeneinrichtung aufgenommenen Bilddatensatzes, Biplan-Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102017223603B4 (de) 2017-12-21 2020-01-09 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion eines dreidimensionalen, mit einer Biplan-Röntgeneinrichtung aufgenommenen Bilddatensatzes, Biplan-Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
US10856829B2 (en) 2017-12-21 2020-12-08 Siemens Healthcare Gmbh Reconstructing a three-dimensional image data record recorded with a biplanar x-ray device
DE102022209764A1 (de) 2022-09-16 2024-03-21 Siemens Healthcare Gmbh Verfahren zum Erkennen einer Änderung einer Trunkierung, Steuereinrichtung, CT-Vorrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Also Published As

Publication number Publication date
US10039512B2 (en) 2018-08-07
US20170086767A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
DE102015208929B3 (de) Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
DE102016202512B3 (de) Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
EP3111417B1 (de) Rauschreduktion in tomogrammen
EP3640894B1 (de) Verfahren zur rekonstruktion eines bilddatensatzes der computertomographie, computertomographieeinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE102013218819B3 (de) Verfahren zur Reduzierung von Artefakten in einem Bilddatensatz und Röntgeneinrichtung
DE102017201164B3 (de) Verfahren zur Vermessung einer Röntgenaufnahme eines medizinischen Untersuchungsbereichs nebst zugehöriger Vorrichtung und Computerprogramm
DE102012110497A1 (de) Verfahren und Vorrichtung für iterative Rekonstruktion
DE102019001988B3 (de) Röntgensystem für die iterative Bestimmung einer optimalen Koordinatentransformation zwischen sich überlappenden Volumina, die aus Volumendatensätzen von diskret abgetasteten Objektbereichen rekonstruiert wurden.
DE102007046514A1 (de) Verfahren zur Erkennung und Markierung von Kontrastmittel in Blutgefäßen der Lunge mit Hilfe einer CT-Untersuchung und Bildauswerteeinheit eines CT-Systems
DE102004035980A1 (de) Verfahren zur Bildgebung bei einem interventionellen Eingriff
DE102011086771A1 (de) Computertomographieanlage und Verfahren zum Ermitteln von Volumeninformationen zu einem Körper
DE102012220028A1 (de) Angiographisches Untersuchungsverfahren
DE102017223603B4 (de) Verfahren zur Rekonstruktion eines dreidimensionalen, mit einer Biplan-Röntgeneinrichtung aufgenommenen Bilddatensatzes, Biplan-Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP2242023B1 (de) Verfahren zur bewegungskompensierten Rekonstruktion eines dreidimensionalen endgültigen Bilddatensatzes
DE102011075917A1 (de) Verfahren zum Bereitstellen eines 3D-Bilddatensatzes mit unterdrückten Messfeldüberschreitungsartefakten und Computertomograph
DE102013200329B4 (de) Verfahren und Vorrichtung zur Dejustagekorrektur für Bildgebungsverfahren
EP2556489A1 (de) Abgleich von positronen emissions tomographen unter verwendung eines virtuellen tomographen
DE102015218596A1 (de) Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen
DE102009007236A1 (de) CT-Bildrekonstruktion eines sich bewegenden Untersuchungsobjektes
DE102014210420A1 (de) Verfahren zur Reduzierung von Trunkierungsartefakten und Röntgeneinrichtung
DE102012223745A1 (de) CT-Bildrekonstruktion mit kantenerhaltender Filterung
WO2019175143A1 (de) Verfahren zum korrigieren von messfehlern bei der bildgewinnung eines prüfobjekts mittels computertomographie
DE102008038330B4 (de) Verfahren zur Rekonstruktion von 2D-Schnittbildern aus computertomographischen 3D-Projektionsdaten, die als vollständige und unvollständige (engl. truncated) Projektionen erfasst wurden
DE102009015772A1 (de) Verfahren zur Rekonstruktion von CT-Bilddatensätzen und CT-System
DE102022200806A1 (de) Bereitstellen eines Ergebnisdatensatzes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE