DE10231061A1 - Verfahren und System zur Verbesserung des Informationsgehaltes in einem Bild - Google Patents

Verfahren und System zur Verbesserung des Informationsgehaltes in einem Bild Download PDF

Info

Publication number
DE10231061A1
DE10231061A1 DE2002131061 DE10231061A DE10231061A1 DE 10231061 A1 DE10231061 A1 DE 10231061A1 DE 2002131061 DE2002131061 DE 2002131061 DE 10231061 A DE10231061 A DE 10231061A DE 10231061 A1 DE10231061 A1 DE 10231061A1
Authority
DE
Germany
Prior art keywords
movement
image
images
motion
states
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2002131061
Other languages
English (en)
Inventor
Jürgen Dr. Weese
Peter Dr. Rösch
Angela Da Danville Silva
Michael Pleasanton Petrillo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Intellectual Property and Standards GmbH
Original Assignee
Philips Intellectual Property and Standards GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Intellectual Property and Standards GmbH filed Critical Philips Intellectual Property and Standards GmbH
Priority to DE2002131061 priority Critical patent/DE10231061A1/de
Priority to US10/520,988 priority patent/US7558439B2/en
Priority to PCT/IB2003/003011 priority patent/WO2004008390A2/en
Priority to JP2004520990A priority patent/JP2005532137A/ja
Priority to EP03738465.8A priority patent/EP1522045B1/de
Priority to AU2003244998A priority patent/AU2003244998A1/en
Publication of DE10231061A1 publication Critical patent/DE10231061A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Abstract

Die Erfindung bezieht sich auf ein Verfahren, bei dem der Informationsgehalt eines Bildes von einem bewegten Objekt verbessert wird. Weiterhin betrifft die Erfindung ein System, in dem ein solches Verfahren angewendet wird sowie ein Computerprogramm, mit dem eine Datenverarbeitungseinheit dieses Verfahren ausführen kann. Insbesondere kommt dieses Verfahren in medizinischen bildgebenden Systemen zur Anwendung. DOLLAR A Bei dem Verfahren wird zunächst ein erstes Bild eines bewegten Objekts mit einem ersten bildgebenden Verfahren akquiriert, welches durch die Objektbewegung bedingte Artefakte aufweist. Aus zwei weiteren Bildern, die mit einem zweiten bildgebenden Verfahren akquiriert werden und die das Objekt in jeweils einem Bewegungszustand der Bewegung darstellen, wird ein Bewegungsmodell erzeugt, das in unterschiedlicher Art und Weise in bildverarbeitende oder bilderzeugende Schritte eingebunden wird, wodurch der Informationsgehalt entweder des ersten Bildes oder eines Kombinationsbildes aus dem ersten und den zwei weiteren Bildern verbessert wird.

Description

  • Die Erfindung bezieht sich auf ein Verfahren, bei dem der Informationsgehalt eines Bildes von einem bewegten Objekt verbessert wird. Weiterhin betrifft die Erfindung ein System, in dem ein solches Verfahren angewendet wird sowie ein Computerprogramm, mit dem eine Datenverarbeitungseinheit dieses Verfahren ausführen kann. Insbesondere kommt dieses Verfahren in medizinischen bildgebenden Systemen zur Anwendung.
  • Ein solches Verfahren kommt dort zum Einsatz, wo von einem bewegten Objekt Bilder erzeugt werden, die oft unvermeidbare Bewegungsartefakte aufweisen. Dadurch wird das Objekt in der Regel unscharf abgebildet und stellt einem Betrachter nur unzureichende Informationen über das Objekt zur Verfügung. Insbesondere bei Schnittbild- oder Volumenabbildungen eines bewegten Objekts führen Bewegungsartefakte häufig zu unbrauchbaren Bildern.
  • Aus dem Artikel von D. Mattes et. al, „Nonrigid multimodality Image registration", Medical Imaging 2001: Image Processing, Proceedings of SPIE Vol. 4322(2001), ist ein Verfahren bekannt, bei dem ein Bild eines bewegten Objekts, das mittels des PET-Verfahrens akquiriert und rekonstruiert wurde und das Bewegungsartefakte aufweist, mit einem anderen Bild des bewegten Objekts, das mittels des CT-Verfahrens akquiriert und rekonstruiert wurde, zu einem Kombinationsbild überlagert. Dabei geschieht die Erzeugung des Kombinationsbildes durch eine spezielle Registrierung der beiden Einzelbilder unter Ausnutzung von wechselseitigen, in beiden Bildern enthalten prägnanten Ähnlichkeits-Informationen. Aufgrund physikalischer Gegebenheiten weist das PET-Bild starke Bewegungsartefakte auf, die in dem hier offenbarten Verfahren nicht beachtet werden und zu Schwierigkeiten bei der Überlagerung führen.
  • Aufgabe der Erfindung ist es, die Aussagekraft von Bildern mit Bewegungsartefakten zu erhöhen.
  • Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Verbesserung des aus einem ersten, mit Bewegungsartefakten behafteten Bild eines bewegten Objekts entnehmbaren Informationsgehaltes mit folgenden Schritten:
    • a. Verwendung von zwei weiteren Bildern, die das Objekt möglichst frei von Bewegungsartefakten in jeweils einem Bewegungszustand darstellen,
    • b. Bestimmung eines Bewegungsmodells, durch welches Bewegungszustände, die das Objekt bei der Ausführung der Bewegung zwischen den beiden Bewegungszuständen einnimmt, charakterisiert werden.
  • Dabei kann das erste Bild aus Projektionen zu rekonstruieren sein.
  • Von einem bewegten Objekt liegt ein erstes Bild vor, welches durch die Bewegung des Objekts Bewegungsartefakte aufweist. Diese Bewegungsartefakte bewirken beispielsweise, dass das Objekt desto unschärfer abgebildet ist, je mehr sich das Objekt während der Akquisitionszeit bewegt hat. Solche Bewegungsartefakte können dann entstehen, wenn die Akquisitionszeit des zur Akquisition eingesetzten bildgebenden Verfahrens im Verhältnis zu der Bewegung lang ist, sodass sich das Objekt während der Akquisition bewegt. Der Begriff Bewegung ist sehr generell zu verstehen. Das Objekt kann beispielsweise eine sehr komplexe Eigenbewegung (menschliches Herz) oder lediglich eine lineare gleichförmige Bewegung (eine mit konstanter Geschwindigkeit rollende Kugel) ausführen.
  • Weiterhin liegen von dem Objekt wenigstens zwei weitere Bilder vor. Diese bilden jeweils einen Bewegungszustand des Objekts möglichst frei von Bewegungsartefakten ab, wobei die beiden Bewegungszustände dabei aus derjenigen Bewegung stammen, die das Objekt während der Akquisition des ersten Bildes ausgeführt hat. Alternativ können die beiden dargestellten Bewegungszustände aber auch aus einer von dem Objekt zu einem anderen Zeitpunkt ausgeführten weiteren Bewegung stammen, die zumindest nahezu gleich derjenigen Bewegung ist, die das Objekt während der Akquisition des ersten Bildes ausgeführt hat. Zur möglichst artefaktfreien Darstellung der Bewegungszustände ist die Akquisitionszeit dabei in der Regel kurz im Verhältnis zu der Dauer der Bewegung.
  • Die zur Akquisition des ersten Bildes und der beiden weiteren Bilder einsetzbaren bildgebenden Verfahren können gleich oder verschieden sein. Wird ein gemeinsames bildgebendes Verfahren für alle Bilder eingesetzt, so können die unterschiedlichen Merkmale des ersten Bildes und der beiden weiteren Bilder durch unterschiedliche Einstellungen von Akquisitionsparametern erreicht werden. Werden zwei verschiedene bildgebende Verfahren eingesetzt, die jeweils andere Merkmale des Objekts darstellen, so können sich Informationen dieser verschiedenen Merkmale später vorteilhaft ergänzen.
  • Weiterhin wird ein Bewegungsmodell der Bewegung des Objekts ermittelt, durch welches Bewegungszustände, die das Objekt bei der Ausführung der Bewegung zwischen den beiden Bewegungszuständen einnimmt, charakterisiert werden. Insbesondere bei einer komplexen Eigenbewegung des Objekts bewegen sich einzelne Teile des Objekts während der Ausführung der Bewegung unterschiedlich, beispielsweise legen einige Teile des Objekts nur einen kurzen Weg zurück, während andere Teile einen langen und eventuell kurvenartigen Weg nehmen. Ausgehend von einem der beiden Bewegungszustände beschreibt das Bewegungsmodell das Verhalten für verschiedene Teile des Objekts während der Bewegung von dem einen zu dem anderen Bewegungszustand.
  • Die so gewonnenen Informationen über die Bewegung des Objekts können dann in verschiedener Art und Weise in ergänzende bildverarbeitende oder bilderzeugende Schritte eingebunden werden, wodurch die resultierenden Bilder qualitativ verbessert werden.
  • Beispielsweise sind solche ergänzende Schritte gemäß Anspruch 1:
    • c. Erzeugung eines Zwischenbildes des Objekts aus dem Bewegungsmodell und den zwei weiteren Bildern, wobei das Zwischenbild das Objekt zumindest näherungsweise derart darstellt, als hätte es die Bewegung ausgeführt,
    • d. Erzeugung eines Kombinationsbildes aus dem Zwischenbild und aus dem ersten Bild.
  • Das erzeugte Zwischenbild stellt das Objekt so dar, als würde es die Bewegung ausführen. Ausgehend von den beiden bekannten Bewegungszuständen wird dazu mit Hilfe des Bewegungsmodells die Objektbewegung nachgebildet und aus diesen Informationen beispielsweise durch Überlagerung das Zwischenbild erzeugt. Das so konstruierte Zwischenbild stellt das Objekt nun nahezu mit den gleichen Bewegungsartefakten dar wie das erste Bild.
  • Für einen Betrachter kann es wünschenswert sein, das erste Bild trotz der darin enthaltenen Bewegungsartefakte möglichst unverfälscht zu betrachten, weil durch bekannte bildbearbeitende Verfahren Informationen verloren gehen können. Dann bieten die Überlagerung des Zwischenbildes und des ersten Bildes zu einem Kombinationsbild den Vorteil, dass einerseits das erste Bild möglicht unverfälscht präsentiert werden kann und andererseits die Informationen aus den zwei weiteren Bildern so in dem Zwischenbild aufbereitet werden, dass sie unmittelbar mit denen des ersten Bildes kombiniert werden können.
  • Die Kombination kann dabei in vielfältiger Art und Weise realisiert werden. Beispielsweise können beide Bilder additiv überlagert werden, wodurch die jeweiligen Informationen der Einzelbilder in einem Gesamtbild dargestellt werden. Eine andere Möglichkeit bietet die variable Teilung des Kombinationsbildes, wobei der eine Teil des Kombinationsbildes durch das Zwischenbild und der andere Teil durch das erste Bild dargestellt wird. Ein Betrachter kann die Grenze zwischen den beiden Teilbereichen verfahren, sodass ein Objektteil mal durch das Zwischenbild und mal durch das erste Bild dargestellt wird. Alternativ können die Teilbereiche auch durch einen Rahmen getrennt werden, wobei der Rahmen mit einer Steuereinheit über dem Kombinationsbild verfahrbar ist. Eine einfache Erzeugung des Kombinationsbildes besteht darin, das Zwischenbild und das erste Bild nebeneinander anzuordnen, sodass dem Betrachter beide Bilder gleichzeitig präsentiert werden.
  • Ein anderer ergänzender Schritt gemäß Anspruch 2 ist:
    • c. Fokussieren des ersten Bildes mit Hilfe des Bewegungsmodells
  • Bei der Fokussierung werden die Bewegungsartefakte soweit reduziert, dass das im ersten Bild dargestellte Objekt für einen Betrachter scharf abgebildet präsentiert wird. Generell erscheint das Objekt einem Betrachter dadurch unscharf, dass mehrere Bewegungszustände der Objektbewegung überlagert in einem Bild dargestellt werden. Bei der Fokussierung eines durch Bewegungsunschärfe dargestellten Objekts wird das Objekt in nur einem Bewegungszustand der Bewegung dargestellt, indem die Überlagerung mit den restlichen Bewegungszuständen aufgehoben wird. Dies ist möglich, wenn die zur unscharfen Darstellung führende Bewegung bekannt ist. Das im ersten Schritt ermittelte Bewegungsmodell der Objektbewegung enthält eben diese Informationen über die Objektbewegung, und ein Fokussierungsalgorithmus kann Informationen aus dem Bewegungsmodell zur Fokussierung nutzen. Das Resultat ist ein Bild, welches das Objekt in einem Bewegungszustand (also scharf) darstellt und das für den Betrachter so aussieht, als sei es mit dem ersten bildgebenden Verfahren akquiriert worden. Dies ist gerade dann vorteilhaft, wenn es mit dem ersten bildgebenden Verfahren, beispielsweise aus physikalischen Gründen, nicht möglich ist, von dem bewegten Objekt ein scharfes Bild zu akquirieren.
  • Ist das erste Bild aus Projektionen zu rekonstruieren, so bilden gemäß Anspruch 3 ergänzende Schritte:
    • c. Erzeugung eines Zwischenbildes des Objekts aus dem Bewegungsmodell und den zwei weiteren Bildern, wobei das Zwischenbild das Objekt zumindest näherungsweise derart darstellt, als hätte es die Bewegung ausgeführt,
    • d. Rekonstruktion des ersten Bildes aus den Projektionen des Objekts und dem Zwischenbild.
  • Vorraussetzung für die Anwendung dieses Verfahrens ist, dass statt eines ersten Bildes zunächst Projektionen von dem bewegten Objekt vorliegen und das erste Bild aus diesen Projektionen, beispielsweise mit Hilfe einer Datenverarbeitungseinheit, rekonstruiert wird. Solche Verfahren sind unter anderem aus der Medizin im Bereich der Schicht- oder Volumenbildgebung wie Computertomographie, Kernspintomographie oder Positronen-Emissions-Tomographie bekannt.
  • Insbesondere bei strahlungsemittierenden Objekten, wie sie bei der Positronen-Emissions-Tomographie zur Bilderzeugung dienen, muss beachtet werden, dass ein Teil dieser Strahlung von anderen Teilen des Objekts absorbiert wird. Es sind Methoden bekannt, die bei der Rekonstruktion Informationen bezüglich dieser sogenannten ortsspezifischen Dämpfung zur Vorbeugung von Artefakten im rekonstruierten Bild beachten. Dazu wird in der Regel von dem Objekt ein Transmissionsbild erzeugt, das die benötigten ortsspezifischen Dämpfungen darstellt. Nachteilig ist unter anderem jedoch, dass die Bewegungen des Objekts, die in dem ersten Bild zu Artefakten führen, in dem Transmissionsbild nicht oder nur unzureichend enthalten sind und somit bei der Rekonstruktion nicht beachtet werden. Dies führt in dem rekonstruierten Bild zu Artefakten.
  • Es ist aus zweierlei Hinsicht besonders vorteilhaft, das Zwischenbild bei der Rekonstruktion zu benutzen: Einerseits enthält das Zwischenbild die nötigen Informationen zur ortsspezifischen Dämpfung und andererseits wird die Bewegung des Objekts, die ja in dem Zwischenbild enthalten ist, beachtet. Die mit Hilfe eines solchen Zwischenbildes rekonstruierten Bilder weisen gegenüber Bildern, die mit herkömmlichen Transmissionsbildern rekonstruiert werden, eine erhöhte Qualität auf.
  • Aus dieser Betrachtung ergibt sich, dass generell das Zwischenbild Informationen über die Bildentstehung bei dem ersten bildgebenden Verfahren enthalten muss, in diesem Beispiel Informationen zur ortsspezifischen Dämpfung.
  • An dieser Stelle sei erwähnt, dass insbesondere die Verfahren gemäß der Ansprüche 1 und 3 oder der Ansprüche 2 und 3 miteinander kombinierbar sind und sich vorteilhaft gegenseitig ergänzen.
  • Besonders bei Objekten, deren Teile sich unterschiedlich bewegen, bietet gemäß Anspruch 4 die Darstellung durch Bewegungsvektorfelder eine einfache und für das weitere Verfahren ausreichende ortsspezifische Darstellung der notwendigen Informationen. Ein Bewegungsvektorfeld gibt an, wie bzw. auf welchem Weg sich der entsprechende Teil eines Objekts während der Ausführung der Bewegung zwischen den beiden bekannten Bewegungszuständen bewegt.
  • Liegt eine Information darüber vor, wie häufig die jeweiligen Bewegungszustände während der Ausführung der Bewegung von dem Objekt eingenommen werden, bzw. wie groß die relative Verweildauer des Objekts in dem jeweiligen Bewegungszustand ist, so ist die Erzeugung des Zwischenbildes gemäß Anspruch 5 besonders einfach. Solche Informationen können beispielsweise auf einem Modell der Bewegung basieren oder sie werden während der Ausführung der Bewegung durch einen Sensor ermittelt. Eine solche Erzeugung des Zwischenbildes hat zum Vorteil, dass nicht der gesamte Bewegungsablauf im Bewegungsmodell beschrieben sein muss, sondern nur Informationen über einzelne Bewegungszustände sowie deren Häufigkeit notwendig sind.
  • Durch den Einsatz von unterschiedlichen bildgebenden Verfahren kann es vorkommen, das die einzelnen Teile des Objekts im Zwischenbild bezüglich des ersten Bildes unterschiedlich lokalisiert sind. Dabei können sowohl relative Unterschiede zu den Objektteilen untereinander als auch absolute Unterschiede zu den Bildrändern oder Größenverhältnissen der Objektteile auftreten. Anders ausgedrückt ist das Objekt in dem Zwischenbild mit einem anderen Koordinatensystem dargestellt als in dem ersten Bild. Durch die gemäß Anspruch 6 durchgeführte Registrierung können die jeweiligen Teile des Objekts entweder aus den in dem Zwischenbild dargestellten Positionen in die in dem ersten Bild dargestellten Positionen überführt werden oder umgekehrt. Sowohl in dem Zwischenbild als auch in dem ersten Bild sind nun alle Teile des Objekts an den gleichen Bildpositionen und eine Überlagerung der beiden Bilder ist möglich.
  • Durch einen zusätzlicher Schritt gemäß Anspruch 7 wird das in dem Kombinationsbild dargestellte Objekt in einem ausgewählten Bewegungszustand der Bewegung dargestellt. Dazu werden bekannte Fokussierungsalgorithmen in Kombination mit dem Bewegungsmodell und/oder eines der beiden weiteren Bilder eingesetzt. Der dann dargestellte Bewegungszustand kann je nach verwendetem Fokussierungsalgorithmus jedem Bewegungszustand der Bewegung entsprechen, insbesondere aber den in den beiden weiteren Bildern dargestellten Bewegungszuständen.
  • Eine vorteilhafte Ausgestaltung des Verfahrens aus Anspruch 2 ergibt sich gemäß Anspruch B. Dadurch wird einem Betrachter nicht nur das geschärfte erste Bild zur Verfügung gestellt, sondern zusätzlich ein Vergleich mit einem der beiden weiteren Bilder ermöglicht.
  • Prinzipiell kann das erfindungsgemäße Verfahren mit zwei bildgebenden Verfahren durchgeführt werden, die beide auf der gleichen Modalität basieren. Im Gegensatz dazu ermöglicht die Verwendung unterschiedlicher Modalitäten die Darstellung verschiedener Merkmale des bewegten Objekts in den entsprechenden Bildern. Das erfindungsgemäße Verfahren finden gemäß Anspruch 9 vorteilhafterweise dann Anwendung, wenn das erste bildgebende Verfahren es nicht erlaubt, Bilder von einem bewegten Objekt ohne Bewegungsartefakte zur Verfügung zu stellen.
  • Die Aufgabe wird weiterhin durch ein System gemäß Anspruch 10 gelöst. Unter einem Bildverarbeitungssystem ist jedes System zu verstehen, dass in der Lage ist, die in den erfindungsgemäßen Verfahren aufgeführten Bilder bzw. deren Daten entgegenzunehmen, diese entsprechend zu verarbeiten und das Ergebnis entweder mit geeigneten Mitteln zu visualisieren oder an andere Systeme weiterzuleiten. Das Bildverarbeitungs- System kann dabei gänzlich unabhängig von den Vorrichtungen sein, die jeweils mit den entsprechenden bildgebenden Verfahren die Bilddaten akquirieren. Andererseits ist auch denkbar, das Bildverarbeitungssystem als Komponente eines größeren Systems auszugestalten. Die Datenverarbeitungseinheit kann optional programmierbar ausgestaltet sein.
  • Die Aufgabe wird auch durch ein Untersuchungssystem gemäß Anspruch 11 gelöst. Die Vorrichtungen zur Erzeugung der Bilder sind hinreichend aus dem Stand der Technik bekannt, weshalb an dieser Stelle nicht näher darauf eingegangen wird. Beispielhaft seien lediglich erwähnt: Röntgenanlagen, Kernspintomographen und Geräte aus der Nuklearmedizin. Die beiden bildgebenden Verfahren können mit einer gemeinsamen Modalität oder mit verschiednen Modalitäten realisiert werden. Der Unterschied soll anhand des folgenden Beispiels deutlich werden: Eine gemeinsame Modalität sei normales Durchleuchtungsröntgen, wobei das erste bildgebende Verfahren mit Bewegungsartefakten behaftete Bilder mit langer Akquisitionszeit und niedriger Dosis und das zweite bildgebende Verfahren Bilder mit kurzer Akquisitionszeit und hoher Dosis erzeugt. Dabei können je nach Ausgestaltung des Untersuchungsgerätes mit ein und derselben Vorrichtung durch Änderung entsprechender Parameter beide bildgebenden Verfahren realisiert werden. Bei der Verwendung unterschiedlicher Modalitäten kann als eine Vorrichtung beispielsweise ein Computertomograph und als andere Vorrichtung ein PET-System eingesetzt werden.
  • Ist die Datenverarbeitungseinheit eines oben angesprochenen Systems programmierbar ausgeführt, so wird durch ein Computerprogramm nach Anspruch 12 die Datenverarbeitungseinheit in die Lage versetzt, eines der erfindungsgemäßen Verfahren auszuführen. Je nach Ausgestaltung ist es möglich, das Computerprogramm mit Hilfe eines Computerprogrammprodukts wie ein externes, portables Speichermedium, der Datenverarbeitungseinheit zur Verfügung zu stellen.
  • Die folgenden Beispiele und Ausführungsformen werden durch die 1 bis 6 gestützt. Es zeigen
  • 1 das Blockbild eines Ausführungsbeispiels des Verfahrens nach Anspruch 1,
  • 2 das Blockbild eines Ausführungsbeispiels des Verfahrens nach Anspruch 2,
  • 3 das Blockbild eines Ausführungsbeispiels des Verfahrens nach Anspruch 3,
  • 4 beispielhaft die Bewegungszustandsfunktion der menschlichen Atembewegung,
  • 5 die Bewegungszustandsfunktion einer gleichmäßigen Bewegung,
  • 6 ein PET-CT-Kombinationssystem.
  • Die 1 bis 3 zeigen Verfahrensschritte einiger Ausführungsbeispiele. Dabei stellen rechteckige Kästen Ergebnisse, Daten, Bilder, etc dar. Verfahrensschritte sind elliptisch umrandet.
  • 1 zeigt schematisch die Verfahrensschritte und Ergebnisse eines ersten Ausführungsbeispiels. Ziel des Verfahrens ist es, von einem bewegten Objekt mit zwei unterschiedlichen bildgebenden Verfahren, hier PET und CT basierte Verfahren, Bilder zu akquirieren. Durch die unterschiedlichen bildgebenden Verfahren ist es möglich, von dem bewegten Objekt unterschiedliche Informationen zu erhalten. Diese sollen einem Benutzer gemeinsam zur Verfügung gestellt werden.
  • Von einem bewegten Objekt liegen Projektionen P1 vor, die beispielsweise von dem Brustkorb eines Patienten im Bereich des Zwerchfells mittels des PET (Positronenemissionstomographie)-Verfahrens bestimmt wurden (das Verfahren selbst ist in 1 nicht dargestellt). Das PET-Verfahren ist ein aus der Nuklearmedizin bekanntes Verfahren zur Erzeugung von Schnittbildern oder Volumenbildern. Dabei wird einem Patienten ein mit bestimmten, instabilen Nukliden markiertes Stoffwechselpräparat injiziert, das sich gewebe- oder funktionsspezifisch anlagert. Die hierbei verwendeten Radionuklide zerfallen, wobei in verschiedenen nachfolgenden Prozessen in der Nähe des Zerfallortes zwei γ-Quanten entstehen, die in genau entgegengesetzter Richtung auseinander fliegen, den Patienten verlassen und von entsprechenden Sensoren, die in einem Detektor ringförmig um den Patienten angeordnet sind, detektiert werden können. Auf dem Weg vom Entstehungsort bis zum Austritt aus dem Patienten durchdringen die γ-Quanten weiteres Gewebe des Patienten, das je nach Gewebeart die γ-Quanten mehr oder weniger absorbieren kann. Allgemein ausgedrückt werden die γ-Quanten gewebespezifisch gedämpft. Die Gesamtheit aller detektierter γ-Quanten bildet einen Satz Projektionen P1 des Objekts, aus denen in einer anschließende Rekonstruktion nach bekannter Art und Weise ein Schnitt- oder Volumenbild rekonstruiert wird. Durch das PET-Verfahren erhält man funktionale Bilder des Objekts.
  • Während der Akquisition der Projektionen P1, die zwischen einigen Minuten bis zu einer Stunde dauern kann, führt der Patient eine Atembewegung aus, bei der sich das Zwerchfell entsprechend der Atmung bewegt. Diese Atembewegung verursacht in dem rekonstruierten PET-Bild I0 Bewegungsartefakte, die sich in einem unscharf und verschmiert dargestellten Objekt äußern. Es sind wenigstens zwei Ursachen für solche Bewegungsartefakte bekannt:
    • 1) Durch die Atembewegung nimmt ein bestimmter Ort eines Gewebes bezüglich des Detektors verschiedene Positionen ein, sodass an diesem Ort entstehende γ-Quanten von unterschiedlichen Sensoren des Detektors akquiriert werden.
    • 2) γ-Quanten, die an nahezu dem selben Ort nacheinander entstehen, werden unterschiedlich stark gedämpft, da sich die relative Position des für die Dämpfung verantwortlichen umliegenden Gewebes bezüglich des Entstehungsortes der γ-Quanten durch die Atembewegung verändert.
  • Weiterhin liegen die Bilder I2 und I3 vor, die mit dem in 1 nicht dargestellten CT-basierten Verfahren akquiriert wurden. Das CT-Verfahren(Computer-Tomographie) ist beispielsweise aus der Medizin bekannt und dient zur Ermittlung von Schnitt- und Volumenbilder von Objekten bzw. Patienten, die anatomische Informationen enthalten. Ein CT-basiertes System wird weiter unten näher erläutert. Im Gegensatz zu PET-Bildern weisen CT-Bilder wesentliche geringere oder keine Bewegungsartefakte auf, da die Bildakquisition im Verhältnis zur Bewegung wesentlich schneller erfolgen kann. Bekannte Systeme, die PET-Bilder mit funktionalen Informationen über das Objekt und CT-Bilder mit anatomischen Informationen über das Objekt kombinieren, ignorieren bei der Informationskombination die Bewegungsartefakte der PET-Bilder, wodurch die kombinierten Informationen weitere Artefakte bzw. Fehler aufweisen. Durch die Erfindung werden diese Artefakte bzw. Fehler deutlich reduziert. Im weiteren Verlauf wird gezeigt, wie Artefakte, die durch die oben genannten Ursache 1) in dem PET-Bi1d entstanden sind, in den kombinierten Informationen beachtet werden.
  • Zur Verdeutlichung der Akquisition solcher Bilder zeigt 6 zeigt beispielhaft ein Kombinationssystem aus einem Computertomographen und einem PET-System. Sowohl der Computertomograph als auch das PET-System sind prinzipiell als eigenständige Systeme ausgebildet, die aber, bezogen auf eine gemeinsame Bezugsachse, geometrisch gekoppelt sind. Zur Bildgewinnung werden die Systeme in der Regel nacheinander betrieben, beispielsweise werden zuerst CT-Bilder, die zwei markante Bewegungszustände darstellen, akquiriert und anschließend wird die Akquisition der PET-Daten vorgenommen.
  • Der Computertomograph umfasst eine Gantry 1, die um eine parallel zur z-Richtung verlaufende Rotationsachse 14 rotieren kann. Dazu wird die Gantry 1 von einem Motor 2 mit einer vorzugsweise konstanten, aber einstellbaren Winkelgeschwindigkeit angetrieben. An der Gantry 1 ist eine Strahlenquelle S, beispielsweise eine Röntgenröhre, befestigt. Diese ist mit einer Kollimatoranordnung 3 versehen, die aus der von der Strahlenquelle S erzeugten Strahlung ein kegelförmiges Strahlenbündel 4 ausblendet. Das Strahlenbündel 4 durchdringt ein nicht näher dargestelltes, sich bewegendes Objekt, das sich in einem zylinderförmigen Untersuchungsbereich 13 befindet. Nach dem Durchsetzen des Untersuchungsbereichs 13 trifft das Röntgenstrahlenbündel 4 auf eine an der Gantry 1 befestigte zweidimensionale Detektoreinheit 16.
  • Der mit αmax bezeichnete Öffnungswinkel des Strahlenbündels 4 (als Öffnungswinkel ist der Winkel definiert, den ein in der x-y-Ebene am Rande liegender Strahl des Bündels 4 mit einer durch die Strahlenquelle S und die Rotationsachse 14 definierten Ebene einschließt) bestimmt dabei den Durchmesser des Untersuchungsbereichs 13, innerhalb dessen das zu untersuchende Objekt sich bei der Akquisition der Messwerte befinden muss. Zur Erzeugung von Volumenbildern des Objekts kann das dabei beispielsweise auf einem Tisch liegende, im Untersuchungsbereich 13 angeordnete Objekt mittels eines Motors 5 parallel zur Richtung der Rotationsachse 14 bzw. der z-Achse verschoben werden. Die von der Detektoreinheit 16 akquirierten Messdaten werden einer Rekonstruktionseinheit 10 zugeführt, die daraus die Absorptionsverteilung in dem vom Strahlenkegel 4 erfassten Teil des Untersuchungsbereichs 13 rekonstruiert. Die beiden Motoren 2 und 5, die Rekonstruktionseinheit 10, die Strahlenquelle S und der Transfer der Messdaten von der Detektoreinheit 16 zur Rekonstruktionseinheit 10 werden von einer geeigneten Steuereinheit 7 gesteuert.
  • Die Steuerung der Motoren 2 und 5 kann derart erfolgen, dass das Verhältnis der Vorschubgeschwindigkeit des Untersuchungsbereichs 13 und die Winkelgeschwindigkeit der Gantry 1 in einem konstanten Verhältnis stehen, so dass sich Strahlenquelle S und Untersuchungsbereich 13 relativ zueinander auf einer helixförmigen Bahn, der sogenannten Trajektorie, bewegen. Dabei ist es gleichgültig, ob die Abtasteinheit aus Strah- lenquelle S und Detektoreinheit 16 oder der Untersuchungsbereich 13 die Rotationsbzw. Vorschubbewegung ausführen; wesentlich ist allein die Relativbewegung. Zur Erzeugung von Schnittbildern wird das Objekt nicht verfahren.
  • Mittels einer Erfassungseinheit 12 und eines an dem Objekt angebrachten Bewegungssensors 15 zur Erfassung der Objektbewegung ein Bewegungssignal ermittelt. Dieses Signal kann gegebenenfalls der Rekonstruktionseinheit 10 zugeführt werden, um dadurch die Auswahl der für die Rekonstruktion geeigneten Messdaten zu erleichtern. Weiterhin wird das Bewegungssignal, wie weiter unten aufgeführt, erfindungsgemäß zur Bestimmung des Bewegungsmodells eingesetzt.
  • Zur Rotationsachse 14 konzentrisch ausgerichtet ist weiterhin eine PET-Akquisitionseinheit 20 angeordnet, die ringförmig um das in dem Untersuchungsbereich 13 befindliche Objekt ausgestaltet ist. Die Akquisitionseinheit 20 weist einzelne Sensoren 21 auf, die dem Objekt emittierte γ-Quanten detektiert. Zur Erzeugung von Schnittbildern reicht es aus, die PET-Akquisitionseinheit quasi-zweidimensional auszugestalten, indem in einem ringartigen Gebilde Sensoren 21 nebeneinander angeordnet sind. Zur Erzeugung von Volumenbildern weist die PET-Akquisitionseinheit eine Vielzahl solcher Sensorenringe auf, die zueinander parallel und um die Rotationsachse 13 angeordnet sind. Die von den Sensoren 21 detektierten Signale gelangen zu einer Auswerteeinheit 22, die daraus mit Hilfe bekannter Algorithmen ein oder mehrere PET-Bilder erzeugt.
  • Neben den oben erwähnten Funktionen ist die Steuereinheit 7 weiterhin dazu vorgesehen, das Objekt zwischen den Akquisitions-Positionen des CT-Systems sowie denen des PET-Systems zu verfahren. Nach erfolgter Akquisition der CT-Daten beispielsweise wird das Objekt auf dem Tisch von der Steuereinheit 7 und dem Motor 5 in die Akquisitions-Position der PET-Akquisitionseinheit 20 verfahren, in das Objekt das entsprechende Präparat injiziert und die PET-Daten akquiriert.
  • Die Datenverarbeitungseinheit 23 ist dazu vorgesehen, mit Hilfe der erfindungsgemäßen Verfahren sowie des Bewegungssignals den Informationsgehalt der CT-Bilder und PET-Bilder zu kombinieren, eventuell Bewegungsartefakte zu reduzieren und die Ergebnisse entsprechend durch ein Anzeigegerät 11 zu visualisieren. Ist die Datenverarbeitungseinheit programmierbar ausgestaltet, so wird sie durch ein Computerprogramm in die Lage versetzt, das erfindungsgemäße Verfahren auszuführen. Das Computerprogramm kann dabei in einem internen Speicher wie beispielsweise ein ROM oder EPROM oder in einem Computerprogrammprodukt wie eine das Computerprogramm aufweisende Diskette oder CD-ROM abgelegt sein Sowohl der dargestellte Computertomograph als auch die PET-Akquisitionseinheit können so ausgestaltet werden, dass sowohl Schicht- als auch Volumenbilder akquiriert werden können.
  • Die Bilder I2 und I3 aus 1 stellen zwei verschiedene Bewegungszustände der Bewegung dar, die das Objekt bei der Akquisition der Projektionen P1 ausgeführt hat. Da verfahrensbedingt für eine CT-basierte Akquisition wesentlich weniger Zeit benötigt wird als für eine PET-basierte Akquisition, ist es möglich, von der Atembewegung des Patienten Momentaufnahmen zu erhalten, insbesondere vom eingeatmeten Zustand das Bild I2 und vom ausgeatmeten Zustand das Bild I3. Sowohl der eingeatmete als auch der ausgeatmete Bewegungszustand des Patienten stellen für die Atembewegung besonders charakteristische Zustände dar. Alternativ kann auch eine Sequenz von CT-Bildern IS der Atembewegung ermittelt werden, wobei das Objekt die gleiche Bewegung wie bei der Akquisition der Projektionen P1 ausführt. Anschließend werden mittels bekannter Verfahren aus der Sequenz IS die beiden Bilder I2 und I3 extrahiert. Dies hat den Vorteil, dass die Bewegung wesentlich genauer derjenigen Bewegung entspricht, die das Objekt bei der Akquisition der Projektionen P1 ausführt. Werden die Bilder I2 und I3 direkt akquiriert, so führt das bei Patienten häufig zu unnatürlichen oder verkrampften Bewegungszuständen, die denen bei der Ausführung der natürlichen Atembewegung nicht gleichen.
  • Aus diesen Bewegungszustandsbildern I2 und I3 wird in Kombination mit einer Bewegungszustandsfunktion F1 in dem Schritt C1 ein Objektbewegungsmodell M2 erzeugt. Eine solche Bewegungszustandsfunktion F1 ist als Häufigkeitsfunktion f(r) in 4 für die menschliche Atembewegung beispielhaft dargestellt. Die y-Achse der Häufigkeitsfunktion f(r) beschreibt, wie häufig von dem Objekt während der Ausführung der Bewegung die jeweiligen Bewegungszustände angenommen werden. Die x-Achse repräsentiert aufeinanderfolgende, bei der Ausführung der Bewegung eingenommene Bewegungszustände r . Anders ausgedrückt beschreibt die Häufigkeitsfunktion, wie lange das Objekt während der Ausführung der Bewegung im Mittel in einem bestimmten Bewegungszustand im Verhältnis zu den übrigen Bewegungszuständen verweilt. Ist die Darstellung normiert, so ergibt das Integral über diese Kurve gerade 1. Es fällt besonders auf, dass während der Atembewegung die an der Atembewegung beteiligten Organe bzw. Gewebe besonders häufig bzw. lange im ausgeatmeten Zustand (Exhale) verweilen. Ist in weiteren Verfahrensschritten lediglich die Häufigkeit von Interesse, so kann die Reihenfolge der Bewegungszustände bei der Ausführung der Bewegung vernachlässigt werden und die auf der x-Achse aufgetragenen Bewegungszustände müssen bei der Ausführung der Bewegung nicht zwangsläufig aufeinanderfolgen.
  • Alternativ ist es auch denkbar, eine Bewegungszustandsfunktion F1 heranzuziehen, die nicht nur Aussagen über die Häufigkeit der eingenommenen Bewegungszustände macht, sondern die den gesamten Ablauf der Bewegung (Bewegungszustände sowie deren Häufigkeit und zeitlicher Ablauf) beschreibt. Da eine solche Bewegungszustandsfunktion aber für die Verwendung in den folgenden Schritten dieses Ausführungsbeispiels überbestimmt ist, reicht das Heranziehen einer oben beschriebenen Häufigkeitsfunktion.
  • Die Bewegungszustandsfunktion F1 kann bei bekannten Bewegungsabläufen aus einem Funktionsmodell M1 entnommen werden, ohne dass die tatsächliche Bewegung berücksichtigt wird. Dies ist insbesondere dann möglich, wenn eine Bewegung in ihrem Ablauf bei den meisten Objekten sehr ähnlich oder gleich ist. Wird beispielsweise bei der menschlichen Atembewegung das Modell M1 durch die in 4 dargestellte Häufigkeitsfunktion f(r) gebildet, so kann diese unmittelbar als Bewegungszustandsfunktion F1 angesehen und zur Bestimmung des Bewegungsmodells M2 herangezogen werden. Alternativ kann der tatsächliche Bewegungsablauf durch einen entsprechenden Sensor S1 ermittelt werden. Im Falle der Atembewegung wird dann beispielsweise während der Akquisition der PET-Projektionen P1 mit einem an dem Patienten angebrachten Atembewegungssensor die Atembewegung ermittelt und daraus die Häufigkeitsfunktion f(r) oder allgemeiner eine Bewegungszustandsfunktion F1 zur Konstruktion des Bewegungsmodells M2 bereitgestellt.
  • Aus den Bildern I2 und I3 und der Bewegungszustandsfunktion F1 wird in Schritt C1 ein Bewegungsmodell M2 ermittelt. Die Bilder I2 und I3 stellen jeweils einen bekannten Bewegungszustand des Objekts dar, wobei sich diese Bewegungszustände in der Bewegungszustandsfunktion F 1 wiederfinden. Bei der Annahme, dass sich alle Komponenten des Objekts während der Ausführung der Bewegung örtlich linear, also auf geradlinigen Wegen mit unterschiedlichen Richtungen und Längen, zwischen den in den Bilder I2 und I3 dargestellten Bewegungszuständen bewegen, kann für jeden in einem der Bilder I2 oder I3 dargestellten Bildpunkt oder für jede Objektkomponente mit Hilfe der Bewegungszustandsfunktion F1 der Ablauf der Bewegung bestimmt werden. Dieser ortsspezifische Bewegungsverlauf kann in einem Bewegungsvektorfeld festgehalten werden und bildet zusammen mit der Bewegungszustandsfunktion F1 das Bewegungsmodell M2. Ein Bewegungsvektor gibt demnach an, in welche Richtung und mit welcher Geschwindigkeit oder um welche Strecke sich ein Bildpunkt bzw. eine Objektkomponente während der Ausführung der Bewegung zwischen jeweils zwei Bewegungszuständen bewegt.
  • Mathematisch kann ein solches Vektorfeld durch x 2 = x 3 + m (x 3) beschrieben werden.
  • Ein Punkt x 3 bewegt sich während der Ausführung der Bewegung zu dem Punkt x 2 , wobei die Bewegung durch das Bewegungsvektorfeld m (x 3 ) charakterisiert wird und jeder Bewegungszustand durch x (r) = x 3 + rm (x 3) angenähert werden kann. Der Parameter r ϵ [0,1] repräsentiert für r = 0 den in Bild I3 dargestellten Bewegungszustand mit x (r = 0) = x 3 und für r = 1 den im Bild I2 dargestellten Bewegungszustand x (r = 1) = x 2 . Für die menschliche Atembewegung beispielsweise wird durch x 3 der ausgeatmete Zustand und durch x 2 der eingeatmete Zustand beschrieben. Generell ist eine solche mathematische Beschreibung auch auf viele andere Bewegungen anwendbar. Auch muss die Bewegung nicht zwangsläufig periodisch sein und wiederholt werden. 5 zeigt die Häufigkeitsfunktion von einer Bewegung eines Objekts, bei der alle Bewegungszustände bei der Ausführung der Bewegung gleich häufig eingenommen werden. Dies ist beispielsweise bei der Bewegung der Fall, bei der sich alle Teile des Objekts mit konstanter Geschwindigkeit in die gleiche Richtung bewegen (beispielsweise ein Fahrradfahrer).
  • Ziel des folgenden Schritts C2 ist es, ein Bild I4 aus den Bildern I2 und I3 zu erzeugen, das nahezu die gleichen Bewegungsartefakte wie das Bild I0 aufweist. Dies wird dadurch erreicht, dass ausgehend von einem der Bilder I2 oder I3 zunächst mit Hilfe des Bewegungsmodells M2 künstliche Bilder der restlichen Bewegungszustände erzeugt werden, die dann zu dem Bild I4 überlagert werden:
    Figure 00180001
    Das Bild I4 wird aus dem Integral über alle Bewegungszustände r von dem Produkt aus dem Bild I3 und dem mit der Häufigkeitsfunktion f(r) gewichtetem Bewegungsvektorfeld (x 3 + m (x 3)) gebildet, wobei das Bewegungsvektorfeld (x 3 + m (x 3 )) und die Häufigkeitsfunktion f (r) das Bewegungsmodell M2 bilden. Dadurch stellt das Bild I4 eine Überlagerung aller mit der jeweiligen Verweildauer gewichteten Bewegungszustände dar.
  • Analog führt eine theoretische Betrachtung der Entstehung des PET-Bildes I0 zu dem Ergebnis, dass auch das PET-Bild I0 eine Überlagerung aller mit der jeweiligen Verweildauer gewichteten Bewegungszustände darstellt, es wird also ebenfalls aus dem Integral über alle Bewegungszustände r von dem Produkt aus einem hier nicht dargestellten Bild I0a eines Ausgangs-Bewegungszustandes, der Häufigkeitsfunktion f (r) und dem Bewegungsmodell (x a + m (x a )) gebildet:
    Figure 00180002
    Im Idealfall stellt das Bild IOa den gleichen Bewegungszustand wie das Bild I3 dar und die Vektoren x a und x 3 sowie die jeweilige Häufigkeitsfunktion und das Bewegungsmodell entsprechen sich. Diese Überlegung zur Entstehung des Bildes I0 findet in dem weiter unten beschriebenen Fokussierungsschritt Verwendung, da hierdurch die Entstehung der Bewegungsartefakte in Bild I0 begründet ist.
  • Alternativ zu einem in 6 dargestellten Kombinationsgerät können die Bilder I0 sowie die Bilder I2 und I3 von zwei eigenständigen Systemen akquiriert werden. Dabei wird das Objekt in dem ersten Gerät, beispielsweise das PET-System, positioniert und es wird das PET-Bild akquiriert. Dann wird das Objekt in dem zweiten System positioniert und die CT-Bilder werden akquiriert. Durch die lokale Trennung der beiden Systeme sind die Objektkomponenten in dem PET-Bild I0 in der Regel anders lokalisiert als in den CT-Bildern I2, I3 und I4, womit eine direkte Überlagerung oder ein direkter Vergleich der Bilder I4 und I0 nur unzureichend möglich ist. Daher wird in einem Schritt R2 eine sogenannte Registrierung durchgeführt. Der Schritt R2 ist optional und ist nicht notwendig, wenn die Koordinatensystem der Bilder I0 gegenüber denen der Bilder I2 und I3 genügend genau übereinstimmen (wie im System aus 6 der Fall). Dann kann I0 mit I5 gleichgesetzt und im Verfahren wie weiter unten beschrieben fortgefahren werden.
  • Eine Registrierung ist eine allgemein bekannte Methode zum Abgleich von Koordinatensystemen zwischen zwei oder mehr Bildern mit korrespondierenden Strukturen, wobei auch eine physikalische Korrespondenz von zwei gleichen Objekten mit unterschiedlichem Inhalt vorliegen kann. Dies ist beispielsweise bei einem funktionalen PET-Bild und einem anatomischen CT-Bild des selben Objekts der Fall. Nach erfolgter Registrierung ist es möglich, die in dem einen Bild dargestellten Objektteile durch die ermittelte Koordinatentransformation den entsprechenden Objektteilen in dem anderen Bild zuzuordnen. Dadurch können beispielsweise die in dem einen Bild dargestellten Objektteile so verschoben werden, dass sie die entsprechenden Positionen der in dem anderen Bild dargestellten gleichen Objektteilen annehmen.
  • In dem Artikel von D. Mattes et. al. „Nonrigid multimodality image registration", Medical Imaging 2001: Image Processing, Proceedings of SPIE Vol. 4322 (2001), ist beschreiben, wie eine solche Registrierung von einem CT-Bild und einem PET-Bild durchgeführt werden kann. Da die Registrierung allgemein bekannt ist, wird nicht weiter darauf eingegangen. An dieser Stelle sei allerdings noch erwähnt, dass zur Erleichterung der Registrierung in bekannten PET-Systemen, wie auch in dem Artikel erwähnt, zusätzlich zum eigentlichen PET-Bi1d ein Transmissionsbild akquiriert wird. Vor der Injektion des mit Nukliden markierten Stoffwechselpräparats wird dazu auf einer Bahn um den Patienten herum ein radioaktiver Strahler verfahren, der Strahlen in Richtung Patient emittiert, die den Patienten durchdringen und von den dem Strahler gegenüberliegenden Sensoren des PET-Detektors detektiert werden. Das anschließend rekonstruierte Transmissionsbild ähnelt prinzipiell einem CT-Bild und ist aufgrund der darin enthaltenen anatomischen Informationen besonders bei einer schlechten Bildqualität des eigentlichen PET-Bildes besser zur Registrierung mit dem CT-Bild geeignet. Ist die Koordinatentransformation zwischen dem Transmissionsbild und dem CT-Bild ermittelt, so können die Koordinaten des eigentliche PET-Bildes und des CT-Bildes in Übereinstimmung gebracht werden, da die Koordinatensysteme des Transmissionsbildes und des PET-Bildes nahezu gleich sind. Dieses Verfahren ist zwar in 1 nicht dargestellt, kann aber trotzdem hier eingesetzt werden.
  • Nach erfolgter Registrierung R2 ist es möglich, die Bildpunkte oder die Objektkomponenten aus Bild I0 in das Koordinatensystem von Bild I4 zu transformieren. Dadurch entsteht das PET-Bild I5. Eine mögliche Alternative, das Bild I4 in das Koordinatensystem von Bild I0 zu transformieren, wird hier nicht weiter besprochen. Jetzt ist ein Vergleich oder eine Kombination der Bilder I4 und I5 möglich, da beide Bilder nahezu die gleichen Bewegungsartefakte der Objektbewegung aufweisen und beide Bilder das Objekt bezüglich des gleichen Koordinatensystems darstellen. Ein Betrachter, beispielsweise ein Arzt, möchte bei gewissen Applikationen das Bild I0 möglichst ohne Verfälschung (eine Koordinatentransformation stellt in diesem Sinne keine Verfälschung dar) präsentiert bekommen, um Informationen daraus mit Informationen aus den anderen Bildern vergleichen oder kombinieren zu können. Der Stand der Technik bietet lediglich die Möglichkeit, eines der beiden Bilder I2 oder I3 unmittelbar mit dem Bild I0 zu vergleichen oder zu kombinieren. Dabei weisen die Bilder I2 oder I3 im Gegensatz zu Bild I0 keine Bewegungsartefakte auf, wodurch einerseits das Auffinden einer geeigneten Koordinatentransformation erschwert wird und andererseits das Kombinieren oder Vergleichen selbst nur unter Schwierigkeiten möglich ist.
  • Solche, in 1 als Schritt R3 dargestellten Vergleiche oder Kombinationen sind prinzipiell bekannt und können beispielsweise durch Superposition, durch nebeneinander angeordnete Bilder, durch teilweise Überlagerung mit manuell wählbaren Grenzen oder teilweise Einblendung des einen Bildes in das andere mit manuell wählbaren Grenzen realisiert werden. Das Ergebnis dieses Schritts R3 ist das Bild I6.
  • Applikationsbedingt kann es für einen Systemanwender sinnvoll sein, das Bild I6 auf bestimmte Informationen zu beschränken bzw. bestimmte Informationen besonders hervorzuheben. Dazu ist es in einem optionalen Schritt B1 möglich, das mit Bewegungsartefakten behaftete Bild I6 zu fokussieren, in dem lediglich ein Bewegungszustand der Bewegung dargestellt wird. Ein bekannter, für lineare Bewegungen anwendbarer Algorithmus zur Fokussierung ist beschrieben in dem Artikel von A.K. Katsaggelos, „Iterative image restoration algorithms", OPTICAL ENGINEERING, July 1989, Vol. 28 No.7, Seite 735 ff. Insbesondere Gleichung (1) zeigt, wie Bewegungsunschärfe generell durch Modellierung der Bewegung zu einer linearen Bewegung ausgedrückt und im weiteren Verlauf kompensiert werden kann.
  • 2 zeigt ein weiteres Aufführungsbeispiel des erfindungsgemäßen Verfahrens in einem Kombinationssystem. Wie in 1 wird auch hier ein Bewegungsmodell M2 ermittelt sowie ein PET-Bild I0 erzeugt. Die in 1 gezeigte Registrierung R2 entfällt, da die Koordinatensysteme der Bilder I0, I2 und I3 genügend genau übereinstimmen.
  • In einem Schritt B2 analog zu Schritt B1 aus 1 wird eine Fokussierung des Bildes I0 durchgeführt. Im Gegensatz zu der Fokussierung aus 1 wird die Fokussierung B2 aus 2 so durchgeführt, dass das geschärfte PET-Bi1d I8 den gleichen Bewegungszustand darstellt wie ein akquiriertes CT-Bild, hier das Bild I2. Dadurch ist es möglich, das Bild I8 unmittelbar mit einem Orginal-CT-Bild, hier Bild I2, zu vergleichen oder zu kombinieren. Alternativ kann dieser Prozess auch mit dem Bild I3 oder mit einem Bild aus der Bildsequenz IS durchgeführt werden. In dem Vergleichsschritt R4 kommen die gleichen Methoden zum Einsatz, wie sie in Verbindung mit 1, Schritt R3 beschrieben sind. Das resultierende Bild ergibt sich dann zu Bild I9.
  • Eine hier nicht dargestellte Alternative des Verfahrens aus 2 ist in 1 die Anwendung der Fokussierung B1 auf das Bild I5 statt auf das Kombinationsbild I6, wenn das Koordinatensysteme des Bildes I0 und der Bilder I2 und I3 verschieden sind. Durch die zuvor durchgeführte Registrierung R2 wird zunächst erreicht, dass das Koordinatensystem von Bild I5 dem von Bild I4 und folglich dem des Bewegungsmodells M2 entspricht. Dadurch ist mit Hilfe des Bewegungsmodells M2 eine Fokussierung B1 von dem Bild I5 möglich. Das daraus resultierende Bild ergibt ein PET-Bild, das einen Bewegungszustand der Bewegung darstellt und nahezu keine Bewegungsartefakte aufweist.
  • 3 zeigt eine weitere Möglichkeit, mit Hilfe des Bewegungsmodells den Informationsgehalt eines Bildes zu verbessern. In bekannten PET-Systemen wird, zusätzlich zu dem eigentlichen PET-Bild, mit Hilfe der oben erwähnten Methode ein Transmissionsbild akquiriert. Dieses Transmissionsbild stellt die ortsspezifische Schwächung der radioaktiven Strahlen dar. Diese Schwächungsinformationen werden bei der Rekonstruktion R1 des Projektionen P1 eingesetzt, um die Absorption von γ-Quanten durch umliegendes Gewebe zu korrigieren („Attenuation Correction"). In dem Artikel von I.T. Hsiao et. al. „Noise Propagation from Attenuation Correction into PET Reconstructions" (erschienen in „Nuclear Science & Medical Imaging including Nuclear Power Systems, 2000 Sysmposium", IEEE, ISBN 0-7803-6503-8) sind, beispielsweise in Tabelle 1, verschiedene Methoden zur Korrektur der ortsspezifischen Schwächung aufgeführt. Gleichung (4) zeigt eine Möglichkeit, die durch einen linearen Rekonstruktionsoperator ausgedrückte Rekonstruktion mit den ortsspezifischen Schwächungs- Informationen unter Berücksichtigung von Verteilungseffekten zu multiplizieren.
  • Nachteil dieser Methoden ist jedoch, dass das Transmissionsbild im Gegensatz zu dem eigentlichen PET-Bild häufig zu wenige oder gar keine Bewegungsartefakte aufweist, da die Akquisitionszeit bezüglich der Bewegungszeit kurz ist. Dadurch werden die Schwächungsinformationen nicht richtig eingesetzt und die Bewegungsartefakte im PET-Bild, die durch die oben erwähnte Ursache 2 entstanden sind, nicht berücksichtigt.
  • Erfindungsgemäß wird daher bei der Rekonstruktion RS des PET-Bildes I10 ein Transmissionsbild I4 eingesetzt, dass wie in 1 aus den CT-Bildern I2 und I3 sowie dem Bewegungsmodell M2 gebildet wird. Das Bild I4 weist nahezu die gleichen Bewegungsartefakte auf wie ein PET-Bild, das ohne jegliche Schwächungsinformation rekonstruiert wird. Dadurch werden die Bewegungsartefakte im PET-Bild berücksichtigt und die Rekonstruktion RS mit den Schwächungsinformationen aus Bild I4 liefert ein qualitativ besseres Bild I10 gegenüber einer Rekonstruktion mit einem herkömmlichen Transmissionsbild.
  • Generell sind die Verfahren aus 1, 2 und 3 auch gleichzeitig in einem System einsetzbar, um einem Betrachter die verschiedenartigen Ergebnisse der Verfahren präsentieren zu können. Das Verfahren aus 3 ist mit den Verfahren aus 1 und 2 beliebig kombinierbar, solange es sich bei dem eingesetzten System um ein Kombinationssystem handelt, da nur in einem Kombinationssystem die Koordinatensysteme des PET-Systems mit denen des CT-Systems nahezu übereinstimmen.
  • Es sei an dieser Stelle nochmals darauf hingewiesen, dass die in 1, 2 und 3 dargestellten Verfahren nicht auf CT und PET beschränkt sind. Es ist beispielsweise möglich, das Bild I0 statt mit einem PET-basierten Verfahren mit der Kernspintomographie zu akquirieren oder alternativ die Bilder I2 und I3 statt mit einem CT-basierten Verfahren mit Ultraschall oder schneller Kernspintomographie zu gewinnen. Da das erfindungsgemäße Verfahren allgemein eine Möglichkeit bietet, Bilder mit verschieden artigen Informationen über ein bewegtes Objekt miteinander zu vergleichen, wobei die in einem Bild enthaltenen Bewegungsartefakte berücksichtigt werden, sind auch Anwendungen außerhalb der Medizin denkbar. Beispielsweise kann ein mit Bewegungsartefakten behaftetes Bild von einem fahrenden Automobil mit einer Wärmekamera akquiriert sowie weitere Bilder mit einem herkömmlichen fotografischen Verfahren aufgenommen werden. Das Bild der Wärmekamera zeigt ortsspezifische funktionale Vorgänge, wogegen die fotografischen Bilder strukturelle Merkmale des Objekts darstellen. Die Überlagerung dieser verschiedenartigen Informationen in einem Kombinationsbild unter Berücksichtigung der Bewegungsartefakte bietet einem Betrachter gute Möglichkeiten, alle Informationen gleichzeitig präsentiert zu bekommen.

Claims (12)

  1. Verfahren zur Verbesserung des aus einem ersten, mit Bewegungsartefakten behafteten Bild eines bewegten Objekts entnehmbaren Informationsgehaltes mit folgenden Schritten: a. Verwendung von zwei weiteren Bildern, die das Objekt möglichst frei von Bewegungsartefakten in jeweils einem Bewegungszustand darstellen, b. Bestimmung eines Bewegungsmodells, durch welches Bewegungszustände, die das Objekt bei der Ausführung der Bewegung zwischen den beiden Bewegungszuständen einnimmt, charakterisiert werden, c. Erzeugung eines Zwischenbildes des Objekts aus dem Bewegungsmodell und den zwei weiteren Bildern, wobei das Zwischenbild das Objekt zumindest näherungsweise derart darstellt, als hätte es die Bewegung ausgeführt, d. Erzeugung eines Kombinationsbildes aus dem Zwischenbild und aus dem ersten Bild.
  2. Verfahren zur Verbesserung des aus einem ersten, mit Bewegungsartefakten behafteten Bild eines bewegten Objekts entnehmbaren Informationsgehaltes mit folgenden Schritten: a. Verwendung von zwei weiteren Bildern, die das Objekt möglichst frei von Bewegungsartefakten in jeweils einem Bewegungszustand darstellen, b. Bestimmung eines Bewegungsmodells, durch welches Bewegungszustände, die das Objekt bei der Ausführung der Bewegung zwischen den beiden Bewegungszuständen einnimmt, charakterisiert werden, c. Fokussieren des ersten Bildes mit Hilfe des Bewegungsmodells.
  3. Verfahren zur Verbesserung des aus einem ersten, aus Projektionen zu rekonstruierenden und mit Bewegungsartefakten behafteten Bild eines bewegten Objekts entnehmbaren Informationsgehaltes mit folgenden Schritten: a. Verwendung von zwei weiteren Bildern, die das Objekt möglichst frei von Bewegungsartefakten in jeweils einem Bewegungszustand darstellen, b. Bestimmung eines Bewegungsmodells, durch welches Bewegungszustände, die das Objekt bei der Ausführung der Bewegung zwischen den beiden Bewegungszuständen einnimmt, charakterisiert werden, c. Erzeugung eines Zwischenbildes des Objekts aus dem Bewegungsmodell und den zwei weiteren Bildern, wobei das Zwischenbild das Objekt zumindest näherungsweise derart darstellt, als hätte es die Bewegung ausgeführt d. Rekonstruktion des ersten Bildes aus den Projektionen des Objekts und dem Zwischenbild.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Bestimmung des Bewegungsmodells für Teile des Objekts jeweils ein Bewegungsvektorfeld ermittelt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Erzeugung des Zwischenbildes zunächst mit Hilfe der zwei weiteren Bilder und des Bewegungsmodells Bilder von anderen Bewegungszuständen des Objekts erzeugt werden, die dann zusammen mit den zwei weiteren Bildern entsprechend der Häufigkeit, mit der der in den Bildern jeweils dargestellte Bewegungszustand bei der Ausführung der Bewegung auftritt, gewichtet und anschließend überlagert werden.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Zwischenbild und das erste Bild vor der Erzeugung des Kombinationsbildes registriert, insbesondere elastisch registriert werden.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in einem weiteren Schritt das Kombinationsbild fokussiert wird.
  8. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass aus dem fokussierten ersten Bild und einem der beiden weiteren Bilder, gegebenenfalls mit Hilfe einer Registrierung, ein Kombinationsbild erzeugt wird.
  9. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Bild ein PET- oder SPECT-Bild ist und/oder die zwei weiteren Bilder CT-Bilder oder, bei einem Verfahren nach einem der Ansprüche 1 oder 2, MR-Bilder sind.
  10. Bildverarbeitungssystem, das eine Datenverarbeitungseinheit zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 3 oder einer Kombination dieser Verfahren aufweist.
  11. Untersuchungsgerät, insbesondere medizinisches Untersuchungsgerät, mit – einer Vorrichtung zur Erzeugung von Bildern und/oder Projektionen mit Hilfe eines ersten bildgebenden Verfahrens, – einer Vorrichtung zur Erzeugung von Bildern und/oder Projektionen mit Hilfe eines zweiten bildgebenden Verfahrens, – einem Bildverarbeitungssystem, welches eine Datenverarbeitungseinheit zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 3 oder einer Kombination dieser Verfahren aufweist.
  12. Computerprogramm oder Computerprogrammprodukt, dass dazu vorgesehen ist, so mit einer Datenverarbeitungseinheit zusammenzuwirken, dass die Datenverarbeitungseinheit ein Verfahren nach einem der Ansprüche 1 bis 3 oder eine Kombination dieser Verfahren ausführen kann.
DE2002131061 2002-07-10 2002-07-10 Verfahren und System zur Verbesserung des Informationsgehaltes in einem Bild Withdrawn DE10231061A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE2002131061 DE10231061A1 (de) 2002-07-10 2002-07-10 Verfahren und System zur Verbesserung des Informationsgehaltes in einem Bild
US10/520,988 US7558439B2 (en) 2002-07-10 2003-07-08 Motion artifact correction of tomographical images
PCT/IB2003/003011 WO2004008390A2 (en) 2002-07-10 2003-07-08 Motion artifact correction of tomographical images
JP2004520990A JP2005532137A (ja) 2002-07-10 2003-07-08 画像の情報内容を向上する方法及びシステム
EP03738465.8A EP1522045B1 (de) 2002-07-10 2003-07-08 Bewegungsartefaktkorrektur von tomographischen bildern
AU2003244998A AU2003244998A1 (en) 2002-07-10 2003-07-08 Motion artifact correction of tomographical images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002131061 DE10231061A1 (de) 2002-07-10 2002-07-10 Verfahren und System zur Verbesserung des Informationsgehaltes in einem Bild

Publications (1)

Publication Number Publication Date
DE10231061A1 true DE10231061A1 (de) 2004-01-22

Family

ID=29761820

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002131061 Withdrawn DE10231061A1 (de) 2002-07-10 2002-07-10 Verfahren und System zur Verbesserung des Informationsgehaltes in einem Bild

Country Status (6)

Country Link
US (1) US7558439B2 (de)
EP (1) EP1522045B1 (de)
JP (1) JP2005532137A (de)
AU (1) AU2003244998A1 (de)
DE (1) DE10231061A1 (de)
WO (1) WO2004008390A2 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005017492A1 (de) * 2005-04-15 2006-10-19 Siemens Ag Verfahren zum rechnerischen Kompensieren einer periodischen Bewegung eines Organs
DE102005023907A1 (de) * 2005-05-24 2006-12-07 Siemens Ag Verfahren zur Ermittlung von Positronen-Emissions-Messinformationen im Rahmen der Positronen-Emissions-Tomographie
DE102007034953A1 (de) * 2007-07-26 2009-02-05 Siemens Ag Verfahren zur Bewegungsvorgänge berücksichtigenden Aufnahme von Messdaten eines Patienten und zugehörige medizinische Einrichtung
DE102004050172B4 (de) * 2004-08-20 2010-09-02 "Stiftung Caesar" (Center Of Advanced European Studies And Research) 3D-Rekonstruktion mit schräger Geometrie
DE102012216759A1 (de) 2012-09-19 2014-03-20 Siemens Aktiengesellschaft Verfahren zur Erzeugung eines PET-Bilddatensatzes eines bewegten Untersuchungsobjekts und Einrichtung hierfür
DE102015204718A1 (de) * 2015-03-16 2016-09-22 Siemens Healthcare Gmbh Kompensation von Bildartefakten in einer medizinischen Bildgebung

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0318701D0 (en) * 2003-08-08 2003-09-10 Inst Of Cancer Res The A method and apparatus for image processing
WO2005055829A1 (en) * 2003-12-08 2005-06-23 Philips Intellectual Property & Standards Gmbh Computer tomography method for objects moving periodically
EP1828981A2 (de) * 2004-12-15 2007-09-05 Koninklijke Philips Electronics N.V. Erfassung multimodaler bilder
EP1913421B1 (de) * 2005-08-04 2013-01-30 Koninklijke Philips Electronics N.V. Bewegungsausgleich bei funktioneller bildgebung
US8233691B2 (en) * 2006-08-29 2012-07-31 Koninklijke Philips Electronics N.V. Reduction of heart motion artifacts in thoracic CT imaging
US8548568B2 (en) * 2006-09-08 2013-10-01 General Electric Company Methods and apparatus for motion compensation
DE102007034956A1 (de) * 2007-07-26 2009-02-05 Siemens Ag Verfahren zum Detektieren einer neuropathologisch veränderten Gehirnregion
EP2210118B1 (de) * 2007-11-09 2016-10-12 Koninklijke Philips N.V. Zyklische bewegungskorrektur in einem kombinierten mr/pet(or spect)- bildgebungssystem
US8610965B2 (en) * 2007-11-26 2013-12-17 Optelec Development B.V. Reproduction device, assembly of a reproductive device and an indication body, and a method for reproducing an image portion
KR100923098B1 (ko) * 2008-01-15 2009-10-22 (주)이우테크놀로지 엑스 레이 씨티 촬영 영상의 메탈 아티팩트를 제거하는방법
EP2338142A2 (de) * 2008-09-17 2011-06-29 Koninklijke Philips Electronics N.V. Mr-segmentierung anhand von übertragungsdaten in der hybriden nuklearen/mr-bildgebung
WO2010032168A2 (en) * 2008-09-19 2010-03-25 Koninklijke Philips Electronics N.V. Method for generation of attenuation map in pet-mr
CN102804228B (zh) 2010-03-18 2015-08-19 皇家飞利浦电子股份有限公司 功能图像数据增强和/或增强器
US9330493B2 (en) 2010-12-15 2016-05-03 Fpinnovations Method for generating a 3D representation of an object
EP2578148A1 (de) * 2011-10-04 2013-04-10 Koninklijke Philips Electronics N.V. Medizinisches Abbildungssystem mit Bewegungserkennung
WO2013094186A1 (ja) * 2011-12-18 2013-06-27 国立大学法人京都大学 動き追従x線ct画像処理方法および動き追従x線ct画像処理装置
JP2014147689A (ja) * 2013-01-08 2014-08-21 Toshiba Corp 医用画像診断装置、核医学診断装置、x線ct装置、及び寝台装置
WO2014129428A1 (ja) * 2013-02-21 2014-08-28 株式会社 日立メディコ X線ct装置及び画像再構成方法
CN103544681B (zh) * 2013-08-27 2017-06-06 清华大学 非均一运动模糊图像的恢复方法
US10258301B2 (en) * 2015-01-05 2019-04-16 Koninklijke Philips N.V. Digital subtraction angiography
US9905044B1 (en) 2016-08-25 2018-02-27 General Electric Company Systems and methods for functional imaging
US10993689B2 (en) * 2017-08-31 2021-05-04 General Electric Company Method and system for motion assessment and correction in digital breast tomosynthesis
US10803633B2 (en) 2018-02-06 2020-10-13 General Electric Company Systems and methods for follow-up functional imaging
US10740983B2 (en) * 2018-06-01 2020-08-11 Ebay Korea Co. Ltd. Colored three-dimensional digital model generation
EP3896641A1 (de) * 2020-04-16 2021-10-20 Siemens Healthcare GmbH Korrektur der objektbewegung während der mr-bildgebung
US11309072B2 (en) 2020-04-21 2022-04-19 GE Precision Healthcare LLC Systems and methods for functional imaging
US11300695B2 (en) 2020-04-24 2022-04-12 Ronald Nutt Time-resolved positron emission tomography encoder system for producing event-by-event, real-time, high resolution, three-dimensional positron emission tomographic image without the necessity of performing image reconstruction
US11054534B1 (en) 2020-04-24 2021-07-06 Ronald Nutt Time-resolved positron emission tomography encoder system for producing real-time, high resolution, three dimensional positron emission tomographic image without the necessity of performing image reconstruction

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE181773T1 (de) * 1992-03-09 1999-07-15 Univ Washington Neurographische abbildungsverfahren und diffusions-anistropie
US5546472A (en) * 1992-08-07 1996-08-13 Arch Development Corp. Feature guided method and apparatus for obtaining an image of an object
US5361763A (en) * 1993-03-02 1994-11-08 Wisconsin Alumni Research Foundation Method for segmenting features in an image
US5839440A (en) * 1994-06-17 1998-11-24 Siemens Corporate Research, Inc. Three-dimensional image registration method for spiral CT angiography
US5647360A (en) * 1995-06-30 1997-07-15 Siemens Corporate Research, Inc. Digital subtraction angiography for 3D diagnostic imaging
US5690106A (en) * 1995-06-30 1997-11-25 Siemens Corporate Research, Inc. Flexible image registration for rotational angiography
US6088611A (en) * 1995-08-18 2000-07-11 The Board Of Trustees Of The University Of Illinois Model based method for high resolution dynamic imaging
US5768413A (en) * 1995-10-04 1998-06-16 Arch Development Corp. Method and apparatus for segmenting images using stochastically deformable contours
US5850486A (en) * 1996-04-29 1998-12-15 The Mclean Hospital Corporation Registration of image data
US6178271B1 (en) * 1996-04-29 2001-01-23 The Mclean Hospital Corporation Methods and systems for registering image data
GB9614407D0 (en) * 1996-07-09 1996-09-04 Secr Defence Method for imaging artefact reduction
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US5910728A (en) * 1996-11-12 1999-06-08 Beth Israel Deaconess Medical Center Simultaneous acquisition of spatial harmonics (SMASH): ultra-fast imaging with radiofrequency coil arrays
US6075836A (en) * 1997-07-03 2000-06-13 University Of Rochester Method of and system for intravenous volume tomographic digital angiography imaging
US6229570B1 (en) * 1998-09-25 2001-05-08 Lucent Technologies Inc. Motion compensation image interpolation—frame rate conversion for HDTV
US6490476B1 (en) * 1999-10-14 2002-12-03 Cti Pet Systems, Inc. Combined PET and X-ray CT tomograph and method for using same

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004050172B4 (de) * 2004-08-20 2010-09-02 "Stiftung Caesar" (Center Of Advanced European Studies And Research) 3D-Rekonstruktion mit schräger Geometrie
DE102005017492B4 (de) * 2005-04-15 2007-04-19 Siemens Ag Verfahren zum rechnerischen Kompensieren einer periodischen Bewegung eines Organs sowie Bildaufnahmesystem
DE102005017492A1 (de) * 2005-04-15 2006-10-19 Siemens Ag Verfahren zum rechnerischen Kompensieren einer periodischen Bewegung eines Organs
US7593558B2 (en) 2005-04-15 2009-09-22 Siemens Aktiengesellschaft Method for movement-compensation in imaging
DE102005023907A1 (de) * 2005-05-24 2006-12-07 Siemens Ag Verfahren zur Ermittlung von Positronen-Emissions-Messinformationen im Rahmen der Positronen-Emissions-Tomographie
US7683330B2 (en) 2005-05-24 2010-03-23 Siemens Aktiengesellschaft Method for determining positron emission measurement information in the context of positron emission tomography
DE102007034953A1 (de) * 2007-07-26 2009-02-05 Siemens Ag Verfahren zur Bewegungsvorgänge berücksichtigenden Aufnahme von Messdaten eines Patienten und zugehörige medizinische Einrichtung
CN101352348B (zh) * 2007-07-26 2012-04-18 西门子公司 考虑运动过程的患者测量数据拍摄方法及有关医疗设备
US8180128B2 (en) 2007-07-26 2012-05-15 Siemens Aktiengesellschaft Method for recording measured data of a patient while taking account of movement operations, and an associated medical device
DE102007034953B4 (de) * 2007-07-26 2016-09-22 Siemens Healthcare Gmbh Verfahren zur Bewegungsvorgänge berücksichtigenden Aufnahme von Messdaten eines Patienten und zugehörige medizinische Einrichtung
DE102012216759A1 (de) 2012-09-19 2014-03-20 Siemens Aktiengesellschaft Verfahren zur Erzeugung eines PET-Bilddatensatzes eines bewegten Untersuchungsobjekts und Einrichtung hierfür
DE102015204718A1 (de) * 2015-03-16 2016-09-22 Siemens Healthcare Gmbh Kompensation von Bildartefakten in einer medizinischen Bildgebung
US9818207B2 (en) 2015-03-16 2017-11-14 Siemens Aktiengesellschaft Method and medical imaging system for compensating for image artifacts in medical imaging

Also Published As

Publication number Publication date
WO2004008390A2 (en) 2004-01-22
EP1522045A2 (de) 2005-04-13
AU2003244998A1 (en) 2004-02-02
WO2004008390A3 (en) 2004-07-01
EP1522045B1 (de) 2014-11-19
JP2005532137A (ja) 2005-10-27
AU2003244998A8 (en) 2004-02-02
US20050226527A1 (en) 2005-10-13
US7558439B2 (en) 2009-07-07

Similar Documents

Publication Publication Date Title
DE10231061A1 (de) Verfahren und System zur Verbesserung des Informationsgehaltes in einem Bild
DE102010024139B4 (de) Verfahren zur Bestimmung einer Strahlungsschwächung in einem Positronenemissionstomographen, Vorrichtung und MR-PET-Hybridanlage
DE102012204980B4 (de) Verfahren zur Rekonstruktion von CT-Bildern mit Streustrahlenkorrektur, insbesondere für Dual-Source CT-Geräte
DE102013217351B4 (de) Bildbasierte Bewegungskompensation von Bilddaten
DE102010019016B4 (de) Verfahren zur Rekonstruktion von Bilddaten eines bewegten Untersuchungsobjektes aus Messdaten nebst zugehöriger Gegenstände
DE102012204977B4 (de) Verfahren zur iterativen Bildrekonstruktion für Bi-Modale CT-Daten sowie entsprechende Recheneinheit, Computertomographiesystem, Computerprogramm und Datenträger
DE10136160A1 (de) Verfahren und Vorrichtung zur Registrierung zweier 3D-Bilddatensätze
DE102010027227B4 (de) Verfahren und Computertomographiegerät zur Durchführung einer angiographischen Untersuchung
DE102006025759A1 (de) Verfahren zur Bildrekonstruktion eines Objektes mit Projektionen und Vorrichtung zur Durchführung des Verfahrens
DE10345704A1 (de) Verfahren und Einrichtung für eine Bildgebung mit mehrfachen Modalitäten
DE102005009263A1 (de) Verfahren und System zur Bildgebung unter Verwendung mehrerer versetzter Röntgenstrahlen-Emissionspunkte
DE102006047730A1 (de) Bildrekonstruktionsverfahren und Röntgen-CT-Vorrichtung
DE102011006188B4 (de) Verfahren und Computertomographie-System zur Erstellung tomographischer Bilddarstellung mit mindestens zwei Strahler-Detektor-Systemen
DE102019001988B3 (de) Röntgensystem für die iterative Bestimmung einer optimalen Koordinatentransformation zwischen sich überlappenden Volumina, die aus Volumendatensätzen von diskret abgetasteten Objektbereichen rekonstruiert wurden.
DE102010019632A1 (de) Verfahren zur Aufnahme und Rekonstruktion eines dreidimensionalen Bilddatensatzes und Röntgeneinrichtung
DE102011083854B4 (de) Zeitaufgelöste Tomosynthesebildgebung
DE102010034099A1 (de) Iterative Bildfilterung mit anisotropem Rauschmodell für ein CT-Bild
DE102012222714A1 (de) Ermittlung eines Mehrfachenergie-Bildes
DE102012212774A1 (de) Verfahren zur Korrektur von Metallartefakten und Röntgeneinrichtung
DE102017223603A1 (de) Verfahren zur Rekonstruktion eines dreidimensionalen, mit einer Biplan-Röntgeneinrichtung aufgenommenen Bilddatensatzes, Biplan-Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102009007236A1 (de) CT-Bildrekonstruktion eines sich bewegenden Untersuchungsobjektes
DE102011079496A1 (de) Verfahren zur Erzeugung kombinierter tomographischer Emissions- und Transmissions-Darstellungen sowie kombiniertes Emissionsstrahlungs- und Transmissionsstrahlungs-Untersuchungssystem
DE19625863C2 (de) Verfahren zur Bildrekonstruktion für einen im Spiralbetrieb arbeitenden Computertomographen
DE19842944B4 (de) Verfahren zur Rekonstruktion eines dreidimensionalen Bildes eines im Rahmen einer Tomosynthese abgetasteten Objekts
DE102011080371B4 (de) Strahlentherapie mit überlagerungsfreier 3D-CT Bildgebung

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee