DE102012105331A1 - Artefaktbeseitigung in Nuklearbildern - Google Patents

Artefaktbeseitigung in Nuklearbildern Download PDF

Info

Publication number
DE102012105331A1
DE102012105331A1 DE102012105331A DE102012105331A DE102012105331A1 DE 102012105331 A1 DE102012105331 A1 DE 102012105331A1 DE 102012105331 A DE102012105331 A DE 102012105331A DE 102012105331 A DE102012105331 A DE 102012105331A DE 102012105331 A1 DE102012105331 A1 DE 102012105331A1
Authority
DE
Germany
Prior art keywords
image
region
examined
views
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012105331A
Other languages
English (en)
Inventor
Jonathan Sachs
Lana Volokh
Floribertus P. M. Heukensfeldt Jansen
Yaron Hefetz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102012105331A1 publication Critical patent/DE102012105331A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/424Iterative

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Mathematical Physics (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Analysis (AREA)
  • Nuclear Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die vorliegende Erfindung betrifft verschiedene Verfahren zur Entfernung oder Verringerung der Effekte von außerhalb eines Feldes liegenden Strahlungsquellen in Emissionstomographieanwendungen. In bestimmten Ausführungsformen wird eine Mehrzahl von Messungsansichten eines zu untersuchenden Organs oder einer zu untersuchenden Region erfasst. Die Messungsansichten können rekonstruiert werden, um ein Bild zu erhalten, und das Bild kann in dem Säuberungs- oder Korrekturprozess verwendet werden, der die Erzeugung eines endgültigen Bildes ermöglicht, in dem Artefakte, die auf Auswirkungen einer außerhalb eines Feldes liegenden Quelle zurückzuführen sind, verringert oder eliminiert sind.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Der Gegenstand der vorliegenden Erfindung ist eine nukleartechnische Bildgebung, und insbesondere eine Korrektur von Artefakten, die bei nukleartechnischen Bildgebungsverfahren, wie z. B. der Einzelphotonen-Emissionscomputertomographie (SPECT) oder anderen auf Emissionen basierenden Tomographieverfahren, von einer außerhalb eines Feldes liegenden Quelle bewirkt werden.
  • Es ist eine Vielzahl von Bildgebungsverfahren bekannt und derzeit in Gebrauch, beispielsweise für medizinische Diagnosezwecke. Manche dieser Verfahren, beispielsweise SPECT, beruhen auf der Emission von Gammastrahlen während des radioaktiven Zerfalls eines Radioisotops (oder Radionuklids), das üblicherweise in Form eines radiopharmazeutischen Wirkstoffs verabreicht wird, der in bestimmten zu untersuchenden Geweben angelagert und in manchen Fällen gebunden werden kann. Bei diesen nukleartechnischen Bildgebungsverfahren werden die Emissionen über einen geeigneten Gammastrahlendetektor erfasst. Insbesondere kann ein geeigneter Gammastrahlendetektor aus Komponenten bestehen, die als Reaktion auf einfallende Strahlung Bilddaten erzeugen, die auf die Menge der Strahlung bezogen sind, die auf die einzelnen Regionen des Detektors treffen. Die Bilddaten, die vom Detektor erzeugt werden, können dann rekonstruiert werden, um Bilder von den inneren Strukturen des Untersuchungsgegenstands zu erzeugen.
  • Obwohl sich diese Systeme bei der Beschaffung von qualitativ hochwertigen Bildern mit gutem diagnostischem Wert als äußerst nützlich erwiesen haben, sind noch weitere Verbesserungen möglich. Beispielsweise kann in manchen Fällen ein bestimmter Teil der Anatomie eines Patienten für einen Arzt von Interesse sein. In solchen Fällen kann der Arzt versuchen, Bilddaten zu erhalten, die auf das betreffende Organ bezogen sind, welches für ihn von Interesse ist bzw. untersucht werden soll. Aufgrund der Art und Weise, wie Daten erhoben werden, nämlich in der Regel aus einer großen Anzahl von Ansichten oder Sichtwinkeln um den Patienten, können einige der erfassten Daten Daten enthalten, die nicht nur die Region darstellen, die für den Arzt von Interesse ist, sondern auch andere Teile der Anatomie des Patienten, die nicht untersucht werden sollen. Beispielsweise können andere Organe oder Regionen des Patienten am Abbau des radiopharmazeutischen Wirkstoffs beteiligt sein und können daher Gammastrahlen emittieren, die über dem ansonsten beobachteten Hintergrundwert liegen. Insofern als diese anderen Organe oder Regionen in den Bilddaten Ansichtbar sind, die aus gewissen Ansichten erfasst werden, kann die Qualität des Bildes, das von der eigentlich zu untersuchenden Region erzeugt wird, beeinträchtigt sein. Dieser Effekt kann in Kameras mit kleinem Sichtfeld vorliegen, wo die Größe der Bilddetektoren begrenzt ist, und mit Kameras, wo die Detektoren speziell auf das Organ gerichtet sind, das untersucht werden soll. Ebenso kann die Schwierigkeit bei der PET (Positronemissions-Tomographie) auftreten, wenn ein Detektor verwendet wird, der kein voller Kreis ist.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Die vorliegende Erfindung betrifft Verfahren, mit denen Aspekte eines nukleartechnisch erfassten Bilddatensatzes (beispielsweise eines SPECT-Datensatzes oder einer anderen auf Emissionen basierenden Bildgebungsmodalität), die auf Beiträgen von Teilen der Anatomie des Patienten beruhen, die außerhalb einer zu untersuchenden Region liegen (d. h. von außerhalb liegenden Quellen), reduziert oder eliminiert werden. In bestimmten Implementierungen kann ein Rekonstruktionsverfahren, beispielsweise ein iteratives Rekonstruktionsverfahren, angewendet werden, in dem modellierte oder erwartete Bilddaten verwendet werden können, um Datenbeiträge von unerwarteten oder unerwünschten Quellen zu reduzieren oder zu eliminieren. Auf diese Weise können Bilder erzeugt werden, die den Daten entsprechen, die von einer zu untersuchenden Region des Patienten (beispielsweise dem Herzen) stammen, während die Effekte von Daten, die mit anderen Regionen assoziiert sind, die während des Datenerfassungsprozesses möglicherweise unbeabsichtigt aufgenommen werden, reduziert oder ausgeschlossen werden.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Bildanalysesystem geschaffen. Das Bildanalysesystem weist eine oder mehrere Verarbeitungskomponenten auf, die dafür ausgelegt sind, gemessene Ansichten bzw. Messungsansichten zu empfangen, die allgemein ein zu untersuchendes Organ oder eine zu untersuchende Region umfassen. Zumindest einige der Messungsansichten beinhalten Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region, und um eine oder mehrere ausführbare Routinen, die in einem Speicher gespeichert sind, auszuführen. Die eine oder die mehreren Verarbeitungskomponenten sind auch dafür ausgelegt, eine oder mehrere ausführbare Routinen, die in einem Speicher gespeichert sind, auszuführen. Wenn sie ausgeführt werden, rekonstruieren die Routinen die Messungsansichten, um ein Ausgangsbild zu erzeugen, erzeugen für jede Messungsansicht unter Verwendung des Ausgangsbildes eine entsprechende geschätzte Ansicht bzw. Schätzungsansicht, vergleichen jede Messungsansicht mit der entsprechenden Schätzungsansicht, um gegebenenfalls einen Hinweis auf die Strahlungsbeiträge zu erhalten, die von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region kommen und in den einzelnen Messungsansichten vorhanden sind, und verwenden die Hinweise, um ein endgültiges Bild zu rekonstruieren, in dem die Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region reduziert oder eliminiert sind. Das Bildanalysesystem enthält auch eine Schnittstellenschaltung, die so gestaltet ist, dass sie eine Interaktion des Anwenders mit dem Bildanalysesystem ermöglicht.
  • Gemäß einem anderen Aspekt wird eines bzw. werden mehrere maschinenlesbare Medien geschaffen, die Routinen kodieren. Die Routinen werden von einem Prozessor ausgeführt und bewirken, dass Schritte ausgeführt werden, die beinhalten: Zugreifen auf eine Mehrzahl von unterschiedlichen Messungsansichten. Die Messungsansichten zeigen einen Strahlungsbeitrag von einem zu untersuchenden Organ oder einer zu untersuchenden Region. Eine oder mehrere der Messungsansichten beinhalten auch einen sekundären Strahlungsbeitrag von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region. Die ausgeführten Schritte beinhalten auch das Rekonstruieren eines Ausgangsbildes unter Verwendung der Mehrzahl von Messungsansichten, das Segmentieren des zu untersuchenden Organs oder der untersuchten Region in dem digitalen Bild, um eine Maske zu bilden, und das Reprojizieren des Ausgangsbildes unter Verwendung der Maske, um eine Mehrzahl von gesäuberten Ansichten bzw. Aufnahmen zu erzeugen, in denen die Pixel, die außerhalb des Bereichs liegen, der von der Maske definiert wird, auf einen angepassten Wert eingestellt werden. Ein endgültiges Bild wird zumindest teilweise auf Basis der Mehrzahl von gesäuberten Ansichten rekonstruiert.
  • Gemäß einem weiteren Aspekt wird ein Bildrekonstruktionsverfahren geschaffen. Gemäß diesem Verfahren wird eine Mehrzahl von Messungsansichten erfasst, die allgemein die Strahlung darstellen, die von einem zu untersuchenden Organ oder einer zu untersuchenden Region emittiert wird, das bzw. die aus verschiedenen Positionen betrachtet wird. Eine oder mehrere der Messungsansichten weisen Strahlung auf, die von einer Quelle emittiert wird, die in Bezug auf das Sichtfeld zumindest einiger der übrigen Messungsansichten außerhalb liegt. Die Messungsansichten und die entsprechenden Schätzungsansichten werden jeweils verglichen, um eine oder mehrere betroffene Regionen in der einen oder den mehreren Ansichten zu identifizieren, die Strahlung enthalten, die von der außerhalb liegenden Quelle emittiert wird. Es wird ein endgültiges Bild erzeugt, in dem die Beiträge der identifizierten betroffenen Regionen reduziert oder eliminiert sind.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese und andere Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden besser verständlich, wenn die folgende ausführliche Beschreibung mit Bezug auf die begleitenden Zeichnungen gelesen wird, wobei gleiche Bezugszeichen in allen Zeichnungen gleiche Teile bezeichnen und wobei:
  • 1 eine schematische Darstellung einer Ausführungsform eines SPECT-Systems ist, das sich zur Verwendung gemäß der vorliegenden Erfindung eignet;
  • 2 ein Beispiel für eine SPECT-Bilderfassung ist, die aus einer Reihe von Ansichten unter Verwendung von Lochkamera-Gammadetektoren gemäß Aspekten der vorliegenden Erfindung durchgeführt wird;
  • 3 ein Bild darstellt, das von der in 2 dargestellten Bilderfassungskonfiguration aus einer ersten Ansicht erfasst wird;
  • 4 ein Bild darstellt, das von der in 2 dargestellten Bilderfassungskonfiguration aus einer zweiten Ansicht erfasst wird;
  • 5 ein Bild darstellt, das von der in 2 dargestellten Bilderfassungskonfiguration aus einer dritten Ansicht erfasst wird;
  • 6 ein Bild darstellt, das von der in 2 dargestellten Bilderfassungskonfiguration aus einer vierten Ansicht erfasst wird;
  • 7 ein Beispiel für eine SPECT-Bilderfassung darstellt, die unter Verwendung einer parallelgerichteten Gammadetektoranordnung gemäß Aspekten der vorliegenden Erfindung aus mehreren Ansichten durchgeführt wird;
  • 8 ein Bild darstellt, das von der Bilderfassungskonfiguration, die in 7 dargestellt ist, aus einer ersten Ansicht erfasst wird;
  • 9 ein Bild darstellt, das von der Bilderfassungskonfiguration, die in 7 dargestellt ist, aus einer zweiten Ansicht erfasst wird;
  • 10 ein Bild darstellt, das von der Bilderfassungskonfiguration, die in 7 dargestellt ist, aus einer dritten Ansicht erfasst wird;
  • 11 ein Bild darstellt, das von der Bilderfassungskonfiguration, die in 7 dargestellt ist, aus einer vierten Ansicht erfasst wird;
  • 12 ein erstes Flussdiagramm einer von einem Prozessor ausführbaren Logik zur Bewältigung von Bildartefakten, die auf außerhalb liegende Quellen zurückgehen, gemäß Aspekten der vorliegenden Erfindung darstellt;
  • 13 ein Beispiel für eine Ansicht darstellt, die eine geeignete Erweiterung einer betroffenen Region, die in der Ansicht identifiziert ist, gemäß Aspekten der vorliegenden Erfindung darstellt; und
  • 14 ein zweites Flussdiagramm einer von einem Prozessor ausführbaren Logik zur Bewältigung von Bildartefakten, die auf außerhalb liegende Quellen zurückgehen, gemäß Aspekten der vorliegenden Erfindung darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Wie hierin erörtert, betrifft die vorliegende Erfindung die Erzeugung von nuklearmedizinischen Zwecken dienenden Bildern, beispielsweise SPECT- oder andere auf Emissionen basierende tomographische Rekonstruktionen, bei ”” die Effekte von außerhalb liegenden Quellen reduziert oder entfernt sind. Beispielsweise kann in einer Ausführungsform ein Rekonstruktionsverfahren, wie ein iteratives Rekonstruktionsverfahren, verwendet werden, in der erwartete oder modellierte Ansichten, die das Organ oder die Physiologie betreffen, das bzw. die tatsächlich untersucht werden soll, für diejenigen Teile der durch Messung erhaltenen Bilddaten, die von Quellen stammen, die im Sichtfeld liegen, mit den tatsächlich Messungsansichten dieser Teile verglichen werden. Die Teile der Bilddaten, die durch außerhalb liegende Quellen betroffen sind, können im Zuge des Rekonstruktionsprozesses verworfen, ersetzt, korrigiert, abgeschwächt usw. werden. Auf diese Weise können Bilder der Region des Patienten, die untersucht werden soll, so rekonstruiert werden, dass die Effekte dieser außerhalb liegenden Quellen reduziert oder eliminiert sind. Dieser Effekt kann in Kameras mit kleinem Sichtfeld, wo die Größe der Bilddetektoren begrenzt ist, und mit Kameras, in denen die Detektoren speziell auf das Organ gerichtet sind, das den Untersuchungsgegenstand bildet, vorhanden sein. Das Problem trat in SPECT-Kameras mit großem Sichtfeld, in denen der gesamte Abschnitt des abgebildeten Körpers innerhalb jeder einzelnen Ansicht (auch als Projektion bezeichnet) enthalten ist, kaum auf. Jedoch kann die Verwendung von Detektoren mit kleinem Sichtfeld notwendig oder aus Kostengründen angezeigt sein, und Detektoren, die speziell auf das Organ gerichtet sind, das untersucht werden soll, können eine bessere Empfindlichkeit, eine bessere Auflösung, eine geringere Strahlendosis für den Patienten, einen besseren Durchsatz und/oder eine wegen einer verkürzten Erfassungszeit geringere Belastung für den Patienten ermöglichen.
  • Vor dem Hintergrund der obigen Ausführungen ist eine schematische Darstellung eines Beispiels für ein SPECT-Bilderzeugungssystem, das zur Verwendung mit dem vorliegenden Verfahren geeignet ist, in 1 dargestellt. Es sei klargestellt, dass die hierin erörterten Verfahren auch zur Verwendung mit anderen Tomographiemodalitäten auf Emissionsbasis geeignet sind. Das System von 1, das allgemein mit der Bezugszahl 10 bezeichnet ist, ist dafür ausgelegt, unter Verwendung von geeigneten Detektorkomponenten (beispielsweise Lochblenden-Gammakameras oder parallelgerichteten Gammakameras mit Festkörper- oder szintillierenden Detektoren) brauchbare Bilder eines Probanden bzw. Patienten 14 zu erzeugen, wie nachstehend ausführlich beschrieben wird. Der Patient wird in einem Scanner, der mit der Bezugszahl 16 bezeichnet ist und in dem eine Auflage 18 für den Patienten angeordnet ist, positioniert. Die Auflage kann innerhalb des Scanners bewegt werden, um eine Abbildung unterschiedlicher zu untersuchender Gewebe oder Anatomien 20 des Patienten zu ermöglichen. Vor der Bilddatenerfassung wird dem Patienten ein Radioisotop, beispielsweise eine radiopharmazeutische Substanz (manchmal als Radiotracer bezeichnet), verabreicht, das von bestimmten Geweben oder Organen 20 gebunden oder aufgenommen wird. Typische Radioisotope beinhalten verschiedene radioaktive Formen von Elementen, obwohl bei der SPECT-Bildgebung viele auf einem Isotop von Technetium (99mTc) basieren, das während seines Zerfalls Gammastrahlen emittiert. Verschiedene zusätzliche Substanzen können selektiv mit diesen Radioisotopen kombiniert werden, um bestimmte Bereiche oder Gewebe 20 des Körpers anzuzielen.
  • Gammastrahlung, die von dem Radioisotop emittiert wird, wird von einer Detektorkomponente 22, beispielsweise einem digitalen Detektor oder von Gammakameras, erfasst. Obwohl in der Figur als plane Vorrichtung dargestellt, die über dem Patienten angeordnet ist, um die Darstellung zu vereinfachen, kann bzw. können die Detektorstruktur(en) 22 in der Praxis um den Patienten herum angeordnet sein, beispielsweise in einem Bogen oder Ring um den Patienten, oder sie können an einer Positioniervorrichtung (z. B. einem C-Arm, einer Gantry oder einem anderen beweglichen Arm) befestigt sein, die während der Datenerfassung eine Bewegung der Detektorstruktur(en) 22 in einem Bogen oder Kreis um den Patienten oder eine Änderung der Ausrichtung in Bezug auf den Patienten ermöglicht. Allgemein beinhaltet bzw. beinhalten die Detektorstruktur(en) 22 in der Regel eine oder mehrere Komponenten oder Elemente, die in der Lage sind, Gammastrahlung zu erfassen oder auf andere Weise ein erfassbares Signal als Reaktion auf diese Strahlung zu erzeugen. In der dargestellten Ausführungsform beinhalten die Detektorstrukturen einen oder mehrere Kollimatoren und einen Szintillator, die gemeinsam allgemein mit der Bezugszahl 24 bezeichnet sind. Der Kollimator lässt emittierte Gammastrahlung nur in bestimmten Richtungen (in der Regel senkrecht zum Szintillator) auf dem Szintillator auftreffen. Der Szintillator, der in der Regel aus einem kristallinen Material, beispielsweise Natriumiodid (NaI) besteht, wandelt die empfangene Gammastrahlung in schwächere Lichtenergie (z. B. im ultravioletten Bereich) um. Photomultiplikatorröhren 26 fangen dieses Licht dann auf und erzeugen Bilddaten, die Photonen entsprechen, die auf bestimmte diskrete Bildelement-(Pixel-)Regionen auftreffen. In anderen Ausführungsformen wird die Detektorstruktur 22 möglicherweise nicht kollimiert, sondern es werden stattdessen andere Techniken zur Erfassung von Gammastrahlung verwendet, beispielsweise eine oder mehrere Lochblenden-Gammakameras, wie hierin ebenfalls erörtert.
  • In der dargestellten Ausführungsform ist bzw. sind die Detektorstruktur(en) 22 mit einer Systemsteuerungs- und Verarbeitungsschaltung 28 verbunden. Diese Schaltung kann eine Anzahl von physischen und/oder Software-Komponenten aufweisen, die zusammenwirken, um die Erfassung und Verarbeitung der Bilddaten zu ermöglichen, um die gewünschten Bilder zu erzeugen. Beispielsweise kann die Schaltung eine Rohdaten-Verarbeitungsschaltung 30 beinhalten, die zu Anfang die Daten von der bzw. den Detektorstruktur(en) 22 empfängt, und die verschiedene Filterungen, Wertanpassungen usw. durchführen kann. Die Verarbeitungsschaltung 32 ermöglicht insgesamt die Steuerung des Bildgebungssystems und die Manipulation und/oder Rekonstruktion der Bilddaten. Die Verarbeitungsschaltung 32 kann auch Datenkalibrierungsfunktionen, Datenkorrekturfunktionen usw. ausführen. Die Verarbeitungsschaltung 32 kann auch Bildrekonstruktionsfunktionen, beispielsweise auf Basis bekannter Algorithmen (z. B. Rückprojektion, iterative Rekonstruktion usw.) ausführen. Diese Funktionen können auch bei der Nachverarbeitung auf lokalen oder an anderen Orten befindlichen Geräten ausgeführt werden. Es sei klargestellt, dass die hierin erörterten verschiedenen Bildrekonstruktions- und Artefaktkorrektur-Algorithmen teilweise oder ganz unter Verwendung der Rohdaten-Verarbeitungsschaltung 30 und/oder der Verarbeitungsschaltung 32 implementiert werden können.
  • In der dargestellten Ausführungsform interagiert die Verarbeitungseinheit 32 mit der Steuerschaltung/Schnittfläche 34, die eine Steuerung des Scanners und seiner Komponenten, einschließlich der Patientenauflage, der Kamera usw. ermöglicht. Darüber hinaus wird die Verarbeitungsschaltung 32 von verschiedenen Schaltungen unterstützt, beispielsweise einer Speicherschaltung 36, die verwendet werden kann, um Bilddaten, Kalibrierungs- oder Korrekturwerte, Routinen, die von der Verarbeitungsschaltung ausgeführt werden (beispielsweise die hier beschriebenen Artefaktkorrektur-Algorithmen), usw. zu speichern. In einer Ausführungsform führt die Verarbeitungsschaltung einen oder mehrere iterative Rekonstruktionsalgorithmen aus, der bzw. die Verfahren zur Verringerung oder Entfernung von Effekten von außerhalb liegenden Quellen nutzen kann bzw. können, wie hierin erörtert. Diese iterativen Rekonstruktionsverfahren können allgemein iterative Vergleiche zwischen erwarteten oder Modellbildern und erfassten oder durch Messung erhaltenen Bilddaten nutzen, um Artefakte oder Unregelmäßigkeiten zu verringern, die auf nicht-physiologische Faktoren zurückzuführen sind, beispielsweise auf Faktoren, die auf die Geometrie des Bildgebungssystems, Effekte von außerhalb, Dämpfung, Streuung und dergleichen zurückzuführen sind. In einem solchen iterativen Rekonstruktionsverfahren kann der Konvergenzprozess oder die Konvergenzschleife für eine festgelegte Anzahl von Wiederholungen wiederholt oder iteriert werden, oder solange, bis einige Abschlusskriterien erfüllt sind, beispielsweise eine Minimierung einer Kostenfunktion.
  • Schließlich kann die Verarbeitungsschaltung mit einer Schnittstellenschaltung 38 interagieren, die dafür ausgelegt ist, eine Anwenderschnittstelle 40 zu unterstützen. Die Anwenderschnittstelle ermöglicht die Eingabe von Befehlen für Bilderzeugungssequenzen, die Betrachtung und Anpassung von Scanner- und Systemeinstellungen und dergleichen. In der dargestellten Ausführungsform weist die Anwenderschnittstelle einen Monitor 42 auf, auf dem rekonstruierte Bilder 12 betrachtet werden können.
  • In einer institutionellen Umgebung kann das Bildgebungssystem 10 mit einem oder mehreren Netzen verbunden werden, um die Übertragung von Systemdaten auf das und von dem Bildgebungssystem, ebenso wie das Versenden und Speichern von Bilddaten und verarbeiteten Bildern zu ermöglichen. Beispielsweise können Local-Area-Networks, Wide-Area-Networks, Wireless Networks usw. die Speicherung von Bilddaten auf Informationssystemen von radiologischen Abteilungen und/oder auf Informationssystemen einer Klinik ermöglichen. Solche Netzverbindungen ermöglichen ferner das Versenden von Bilddaten an Nachbearbeitungssysteme an anderen Orten, in Arztpraxen usw.
  • In einer Implementierung kann ein nukleartechnisches Bildgebungssystem, beispielsweise das SPECT-Bildgebungssystem von 1, so ausgelegt sein, dass es angezielte oder begrenzte Regionen im Körper eines Patienten, beispielsweise bestimmte Organe, die untersucht werden sollen, abbildet. Beispielsweise können einige dieser Systeme für eine Bildgebung des Herzens ausgelegt sein und können mehrere Lochblendenkameras oder spezielle Kardiokameras mit kleinen oder begrenzten Sichtfeldern aufweisen. In solchen Implementierungen ist das Rekonstruktionsvolumen in der Regel kleiner als der Teil des Patienten, den die Kamera in Sicht hat, und kann etwas größer als das zu untersuchende Organ oder die zu untersuchende Region (z. B. das Herz oder ein anderes Organ) sein.
  • In typischen Implementierungen können Bilddaten für eine Reihe von unterschiedlichen Sichten auf den Patienten erfasst werden. Als Folge dieser unterschiedlichen Sichten können manche der Sichten emittierte Gammastrahlen erfassen, die außerhalb des Sichtfelds vorhanden sind, das mit anderen Sichten assoziiert ist, und die sich außerhalb der Region befinden, die dem Volumen entsprechen, das rekonstruiert werden soll (d. h. dem Rekonstruktionsvolumen). Wenn solche Bilddaten von außerhalb liegenden Quellen vorhanden sind, ist der Bildrekonstruktionsprozess mathematisch inkonsistent, da Daten von außerhalb liegenden Quellen nicht in das Rekonstruktionsvolumen hinein rekonstruiert werden können. Diese mathematische Inkonsistenz kann sich in Form von Artefakten im rekonstruierten Bildvolumen manifestieren.
  • Beispielsweise kann in einer Kardiokamera-Implementierung die Leber in Daten, die einem oder mehreren Sichtwinkeln entsprechen, sichtbar sein, in anderen jedoch nicht. Beispielsweise ist in 26 eine Konfiguration von mehreren Lochblendenkameras 60 dargestellt, in der Lochblendenkameras 60 in verschiedenen Sichtwinkeln (mit A–D bezeichnet) um einen Patienten herum angeordnet sind oder bewegt werden. Jede Lochblendenkamera 60 weist ein zugehöriges Sichtfeld 62 aus einem bestimmten Sichtwinkel auf, wie von den entsprechenden gestrichelten Linien dargestellt, das dem Teil des Patienten 14 entspricht, für den Bilddaten von der Lochblendenkamera 60 aus dieser Sicht erfasst werden. Es sei klargestellt, dass Lochblendenkameras wie die dargestellten im Allgemeinen konische Projektionen erfassen, die einem invertierten Bild des Sichtfelds 62 von der entsprechenden Kamera 60 entsprechen.
  • In dem dargestellten Beispiel ist eine Kardio-Bildgebungsimplementierung dargestellt, in der die Sichtfelder 62 das Herz 64 des Patienten 14 einschließen, d. h. das Herz 64 stellt die zu untersuchende Region oder das zu untersuchende Organ dar. Die kombinierten Sichtfelder 62 definieren ein Rekonstruktionsvolumen 66, das einer Region entspricht, für die Bilddaten aus den jeweiligen Sichten erfasst werden und die allgemein die zu untersuchende Region oder das zu untersuchende Organ einschließt. Man beachte, dass 2 vier Lochblenden-Gammakameras in einer Ebene zeigt, um die Zeichnung übersichtlich zu halten. Die Geometrie des Kamerasystems kann in Wirklichkeit mehr von diesen Kameras aufweisen, die in einer dreidimensionalen Anordnung angeordnet sind, z. B. müssen die Sichten nicht alle in der gleichen Ebene liegen.
  • Außerhalb des Rekonstruktionsvolumens 66 kann bzw. können eine(s) oder mehrere Organe oder Strukturen vorhanden sein, die ebenfalls Orte darstellen, von denen aus Gammastrahlen emittiert werden können, beispielsweise wegen der Reinigungs- oder Kreislauffunktionen, die von diesen Organen erfüllt werden. In dem dargestellten Beispiel ist die Leber 70 ein solches Organ, das in einigen, jedoch nicht in allen Sichtfeldern 62 der jeweiligen Multi-Lochblendenkameras 60 zu sehen ist. In 36 sind beispielsweise verschiedene Bilder 72, 74, 76, 78 dargestellt, die den Bilddaten entsprechen, die von den jeweiligen Lochblendenkameras 60 aus den jeweiligen Sichten A–D erfasst werden.
  • In 3 ist beispielsweise ein stilisiertes Beispiel für ein Kardiobild 72 dargestellt, das von der SPECT-Systemkonfiguration von 2 erfasst wird. In diesem Beispiel wird das in 3 dargestellte Bild von einer Lochblendenkamera in einer Sicht- bzw. Aufnahmeposition A von 2 erfasst. Aus der Aufnahmeposition A schließt das Sichtfeld 62 der jeweiligen Lochblendenkamera 60 die zu untersuchende Region oder das zu untersuchende Organ ein, in diesem Fall das Herz 64, ohne Beiträge von anderen Quellen.
  • In 4 ist ein stilisiertes Beispiel eines anderen Kardiobildes 74 dargestellt, das einem Bild entspricht, das von der SPECT-Systemkonfiguration von 2 in einer Aufnahmeposition B erfasst wird. Wie bei dem entsprechenden Bild 72, das in der Aufnahmeposition A erfasst wird, schließt das Sichtfeld 62 der entsprechenden Lochblendenkamera 60 in der Aufnahmeposition B die zu untersuchende Region oder das zu untersuchende Organ ein, z. B. das Herz 64 (aus einer anderen Perspektive betrachtet), ohne Beiträge von anderen Quellen. Das Bild 72, das aus der Sicht A erfasst wird, und das Bild 74, das aus der Sicht B erfasst wird, unterscheiden sich jedoch darin, dass die Region, die untersucht werden soll, z. B. das Herz 64, aus verschiedenen Sichten abgebildet ist und daher die Region, die untersucht werden soll, aus unterschiedlichen Sichtwinkeln betrachtet wird.
  • In 5 ist ein stilisiertes Beispiel eines anderen Kardiobildes 76 dargestellt, das einem Bild entspricht, das von der SPECT-Systemkonfiguration von 2 in der Aufnahmeposition C erfasst wird. Anders als die Bilder 72 und 74, die in den Aufnahmepositionen A bzw. B erfasst werden, schließt das Sichtfeld 62 der entsprechenden Lochblendenkamera 60 in der Aufnahmeposition C nicht nur die zu untersuchende Region oder das zu untersuchende Organ ein, z. B. das Herz 64, sondern auch eine außerhalb liegende Gammastrahlenquelle. Tatsächlich überlagern sich in dem dargestellten Beispiel das Herz 64 und die Leber 70 aus der Aufnahmeperspektive der Lochblendenkamera 60 in der Aufnahmeposition C. Somit weisen Bilddaten 76, die von der Lochblendenkamera 60 aus der Sicht C erfasst werden, Beiträge von außerhalb liegenden Quellen (z. B. von der Leber 70) auf, die zu Artefakten führen können, wenn das untersuchte Volumen, in dem das Herz 64 enthalten ist, rekonstruiert werden soll.
  • Ebenso zeigt 6 ein abschließendes stilisiertes Beispiel eines Kardiobildes 78, das einem Bild entspricht, das von der SPECT-Systemkonfiguration von 2 in der Aufnahmeposition D erfasst wird. Wie beim Bild 76 schließt das Sichtfeld 62 der entsprechenden Lochblendenkamera 60 in der Aufnahmeposition D sowohl die Region, die untersucht werden soll (z. B. das Herz 64), als auch eine außerhalb liegende Quelle (z. B. die Leber 70) ein. Anders als beim Bild 76 überlagern sich im Kardiobild 78 das Herz 64 und die Leber 70 im Sichtfeld jedoch nicht, obwohl die Gammastrahlendaten, die mit der Leber assoziiert sind, trotzdem zu Artefakten innerhalb des Rekonstruktionsvolumens 66 beitragen können, das die zu untersuchende Region (z. B. das Herz 64) einschließt. Obwohl die Leber 70 und das Herz 64 sich in diesem Beispiel nicht überlagern, kann Strahlung von der Leber die Rekonstruktion von Bildern des Herzens in dieser Sicht trotzdem beeinflussen, beispielsweise wegen Strahlungsstreueffekten.
  • Das vorangehende Beispiel beschreibt ein Beispiel für eine Bilderfassungskonfiguration, die Lochblendenkameras 60 verwendet, die, wie oben ausgeführt, allgemein konische Projektionen erfassen, die einem invertierten Bild des Sichtfelds 62 von der Kamera 60 entsprechen. In anderen Ausführungsformen kann eine parallelgerichtete Detektoranordnung 90 oder eine parallelgerichtete Kamera verwendet werden, wie in 7 dargestellt, die sowohl einen Kollimator als auch einen Felddetektor innerhalb der Anordnung umfasst. Der Kollimator in einer solchen Anordnung 90 dient dazu, den Winkelbereich von Gammastrahlen, die auf das Detektorfeld treffen, zu begrenzen, was zur Lokalisierung der Gammastrahlenemission beiträgt. In einer solchen Bilderfassungskonfiguration weist die parallelgerichtete Detektoranordnung 90 ein begrenztes, nicht-invertiertes Sichtfeld 62 auf, das mit zunehmendem Abstand nicht größer wird, anders als bei der Lochblendenkamera-Konfiguration. Wie bei der Bilderfassung durch Lochblendenkameras, die oben in Bezug auf 26 erörtert worden ist, können Bilder, die unter Verwendung der dargestellten parallelgerichteten Detektoranordnung aus verschiedenen Sichten A–D erfasst werden, Bilddaten von außerhalb des Rekonstruktionsvolumens 66, beispielsweise von der Leber 70, aufweisen.
  • In 8 ist ein stilisiertes Beispiel für ein Kardiobild 96, das von der SPECT-Systemkonfiguration von 7 erfasst wird, abgebildet. In diesem Beispiel wird das Bild 96 unter Verwendung einer parallelgerichteten Detektoranordnung 90 in einer Aufnahmeposition A von 7 erfasst. Aus der Aufnahmeposition A umfasst das Sichtfeld 62 der parallelgerichteten Detektoranordnung 90 die zu untersuchende Region oder das zu untersuchende Organ, hier das Herz 64, ohne Beiträge von anderen Quellen. Ebenso stellt das Kardiobild 98 von 9 ein als Beispiel dienendes, stilisiertes Bild dar, wie es von einer parallelgerichteten Detektoranordnung 90 in einer Aufnahmeposition B von 7 erfasst werden kann und das daher die zu untersuchende Region, z. B. das Herz 64, aus einem anderen Sichtwinkel erfasst.
  • Ebenso bilden 10 und 11 jeweils Bilder 100 und 102 ab, die unter Verwendung der parallelgerichteten Detektoranordnung 90 von 7 jeweils in Aufnahmepositionen C und D erfasst werden können. Wie im Bild 100 und 102 dargestellt ist, kann eine außerhalb liegende Quelle für Gammastrahlen, hier dargestellt durch die Leber 70, in dem Sichtfeld 62 vorhanden sein, das mit bestimmten Aufnahmepositionen assoziiert ist. Infolgedessen kann die außerhalb liegende Quelle zu den Bilddaten beitragen, die in diesen Aufnahmepositionen erfasst werden, und zwar entweder getrennt von der zu untersuchende Region oder dem zu untersuchende Organ, z. B. dem Herzen 64 (Bild 102, 11), oder so, dass sie die zu untersuchende Region oder das zu untersuchende Organ überlagert (Bild 100, 10). Wie in dem vorangehenden Beispiel ausgeführt worden ist, können Volumina, die unter Verwendung von Bilddaten rekonstruiert werden, die Beiträge von solchen außerhalb liegenden Quellen aufweisen, Artefakte oder Unregelmäßigkeiten aufweisen.
  • Angesichts der obigen Ausführungen ist zu beachten, dass die Daten, die durch Messung von den abgebildeten SPECT-Bilderzeugungssystemen erhalten werden, aus einem Satz aus Messungsansichten bestehen, die im Allgemeinen von einer Strahlung dominiert werden, die von dem zu untersuchenden Organ oder der zu untersuchenden Region emittiert wird. Dieser Satz von Messungsansichten stellt Daten dar, die ihrerseits rekonstruiert werden können, um ein zu untersuchendes Volumen zu erzeugen, das die zu untersuchende Region oder das zu untersuchende Organ einschließt.
  • Insofern als Strahlung von außerhalb liegenden Quellen vorhanden ist, trägt diese Strahlung in der Regel zu einer begrenzten Anzahl der Messungsansichten bei und ist somit über den Messungsansichten nicht konstant oder gleichmäßig. Wenn sie vorhanden ist, kann diese Strahlung von außerhalb liegenden Quellen als sich anschließende oder gleichmäßige Regionen erscheinen, aber in manchen Fällen kann die Strahlung von außerhalb liegenden Quellen abhängig von den betreffenden Organen, der Systemgeometrie usw. gemustert sein. Ferner kann diese Strahlung von außerhalb liegenden Quellen das zu untersuchende Organ oder die zu untersuchende Region überlagern, muss dies aber nicht tun, je nach der jeweiligen Messungsansicht.
  • Wenn Strahlung von außerhalb liegenden Quellen vorhanden ist, kann sie zu einer Count- bzw. Messdichte führen, die größer ist als die beobachtete Hintergrundstrahlung und die mit der Count- bzw. Messdichte vergleichbar ist, die mit dem zu untersuchenden Organ oder der zu untersuchenden Region in den betroffenen Messungsansichten assoziiert ist oder diese übertrifft. Infolgedessen kann es von Vorteil sein, die durch Messung erhaltenen Count-Daten, die mit einer außerhalb liegenden Quelle assoziiert sind, von den durch Messung erhaltenen Count-Daten, die mit dem zu untersuchenden Organ oder der zu untersuchenden Region assoziiert sind, unterscheiden zu können. Diese Unterscheidung bzw. Identifizierung der Daten, die mit einer außerhalb liegenden Quelle assoziiert sind, kann die Trennung dieser Daten von den betroffenen Messungsansichten ermöglichen, während das Signal, das mit dem zu untersuchenden Organ oder der zu untersuchenden Region assoziiert ist, intakt bleibt.
  • Vor dem Hintergrund der obigen Ausführungen stellt 12 ein Beispiel für einen Algorithmus dar, der als Bildverarbeitungs-Steuerlogik implementiert werden kann, die auf einem auf einem Prozessor basierenden System ausgeführt werden kann. In diesem Beispiel werden von einem SPECT-System an verschiedenen Positionen um das zu untersuchende Organ oder die zu untersuchende Region des Patienten N Messungsansichten 122 (Vmeasured) erfasst (Block 120). Jede Messungsansicht 122 ist ein zweidimensionales Bild, das zum Teil oder im Ganzen zumindest einen Teil des zu untersuchenden Organs oder der zu untersuchenden Region des Patienten einschließt. In einem Beispiel beinhalten einige der Messungsansichten 122 auch Bilddaten, die als Reaktion auf Strahlung erzeugt werden, die von einer oder mehreren außerhalb liegenden Quellen emittiert wird.
  • Eine Ausgangsrekonstruktion (Block 124) wird mit den Messungsansichten 122 durchgeführt, um ein rekonstruiertes Ausgangsbild (Rinitial) 126, z. B. ein rekonstruiertes Volumen, das die zu untersuchende Region oder das zu untersuchende Organ einschließt, zu erzeugen. In einer Implementierung, wo die Messungsansichten 122 unter Verwendung einer herkömmlichen parallelgerichteten Kamera erfasst werden, kann die Ausgangsrekonstruktion unter Verwendung einer gefilterten Rückprojektion oder eines iterativen Rekonstruktionsalgorithmus durchgeführt werden. In anderen Implementierungen, wo die Messungsansichten 122 unter Verwendung von mehreren Lochblendenkameras erfasst werden, kann die Ausgangsrekonstruktion unter Verwendung eines iterativen Rekonstruktionsalgorithmus oder eines anderen geeigneten Rekonstruktionsalgorithmus durchgeführt werden. Bei der Ausgangsrekonstruktion (Block 124) kann eine Kamerasystemmatrix (CSM) 128 für die Rekonstruktion verwendet werden, um die Antwort an den verschiedenen Detektorelementen auf die Voxel im Sichtfeld zu beziehen. In bestimmten Ausführungsformen können zusätzliche Korrekturen oder Verarbeitungen im Zusammenhang mit der Rekonstruktion des Ausgangsbilds 126 durchgeführt werden. Beispielsweise kann eine Dämpfungskorrektur und/oder Streuungskorrektur als Teil der Rekonstruktion des Ausgangsbildes 126 oder im Anschluss daran durchgeführt werden. Optional beinhaltet die Rekonstruktion des Ausgangsbilds 126 nur einen Untersatz von Messungsansichten 122. Beispielsweise können Sichten aus Positionen ausgeschlossen werden, von denen bekannt ist, dass sie eine höhere Wahrscheinlichkeit dafür haben, dass sie Beiträge von außerhalb liegenden Quellen enthalten.
  • Das Ausgangsbild 126 wird in der Regel von dem zu untersuchenden Organ oder zu untersuchenden Region dominiert, kann aber auch Artefakte und Unregelmäßigkeiten enthalten, die auf den Strahlungsbeitrag einer oder mehrerer außerhalb liegenden Quellen zurückgehen. In einer Implementierung kann die zu untersuchende Region oder das zu untersuchende Organ im Ausgangsbild 126 auf Basis der Identifizierung einer oder mehrerer sich anschließenden Fläche(n) mit hohen Voxelwerten (z. B. Voxelwerten, die über einem bestimmten Schwellenwert liegen) segmentiert werden. In einer solchen Ausführungsform kann auch ein Erweiterungsschritt durchgeführt werden, um die segmentierte Region etwas zu erweitern, um angrenzende oder andere benachbarte Pixel einzuschließen, um sicherzustellen, dass die zu untersuchende Region oder das zu untersuchende Organ von der segmentierten Region eingeschlossen ist. In manchen Ausführungsformen kann ein Atlas von bekannten Organen des Körpers zur Identifizierung der Organe innerhalb des rekonstruierten Ausgangsbilds verwendet werden. Diese Atlanten sind in der Technik bekannt und werden für eine Reihe von Organen verschiedener Patiententypen und -zustände hergestellt. Die Organe im Atlas können an das Ausgangsbild angepasst werden (beispielsweise durch Bildverschiebung, -drehung, -skalierung und/oder andere Verzerrungen. Das Ausgangsbild kann dann durch das angepasste Atlasorgan ersetzt werden. Auf diese Weise kann ein im Ausgangsbild fehlerhaftes Organ, bei dem ein physiologisch nicht-funktionierender Abschnitt fehlt, durch ein angepasstes Organ voller Größer ersetzt werden.
  • Wenn das zu untersuchende Organ oder die zu untersuchende Region im Ausgangsbild 126 identifiziert und/oder segmentiert worden ist, können verschiedene optionale Schritte auf Basis dieser Segmentierung ausgeführt werden. Beispielsweise können diejenigen Voxel, die nicht als Voxel identifiziert werden, die in dem Segment liegen, das der zu untersuchenden Region entspricht (z. B. die Voxel, die nicht zu dem zu untersuchenden Organ gehören), durch Einstellen der Werte dieser Voxel auf null effektiv aus dem Ausgangsbild 126 entfernt werden. In einer anderen Implementierung können die Werte der Voxel, die nicht zu dem zu untersuchenden Organ gehören, auf einen Wert gesetzt werden, der einem durchschnittlichen Hintergrundwert entspricht, beispielsweise dem Durchschnitts-Voxelwert für diejenigen Voxel, die dem Segment des zu untersuchenden Organs oder der zu untersuchenden Region nicht zugeordnet sind. In anderen Ausführungsformen können die Werte der Voxel, die nicht zu dem zu untersuchenden Organ gehören, geglättet werden und/oder es kann gegebenenfalls eine Positivität eines Voxelwerts erzwungen werden. In anderen Ausführungsformen wird möglicherweise keiner dieser Schritte durchgeführt.
  • In einer Implementierung wird das Ausgangsbild 126 auf Basis von Modell- oder a-priori-Erwartungen 134 reprojiziert (Block 130), um N Schätzungssichten (Vestimated) 132 zu erhalten. In der Regel basiert das Modell 134, das im Reprojektionsprozess 130 verwendet wird, auf den bekannten Parametern des Bildgebungssystems und kann auf dessen eigener Konstruktion oder auf Ergebnissen von experimentellen Messungen (beispielsweise unter Verwendung bekannter Quellen oder Phantome) beruhen, die mit dem System durchgeführt werden. Die Modell- oder anderen Erwartungen 134 können Modell- oder anderen Erwartungen entsprechen, die in der Regel in einem iterativen Rekonstruktionsalgorithmus verwendet werden, um Abweichungen und/oder Artefakte in rekonstruierten Bildern systematisch zu testen und zu bewältigen. In einer solchen Reprojektion kann die Kamerasystemmatrix 128 bei Reprojektion verwendet werden, um die physikalischen und geometrischen Effekte der Kamera- oder Detektoranordnung richtig zu modellieren. Ebenso können insofern, als zuvor eine Dämpfungs- und/oder Streuungskorrektur angewendet worden ist bzw. sind, die geeigneten Dämpfungs- und/oder Streuungskorrekturmodelle auch in dem Reprojektionsprozess verwendet werden.
  • Die Messungsansichten 122 und die Schätzungsansichten 132 können verglichen werden (Block 140), um Ansichten oder Regionen in Ansichten zu identifizieren, die wahrscheinlich von außerhalb liegenden Quellen betroffen sind. In einer Ausführungsform können die betroffenen Ansichten oder Regionen durch Identifizieren von Regionen oder Pixeln, die sich zwischen den Messungsansichten 122 und den Schätzungsansichten 132 unterscheiden, (d. h. von Differenzdaten 142) identifiziert werden. Statistische Verfhren können angewendet werden, um die betroffenen Ansichten oder Ansichtsteile zu bestimmen. Beispielsweise gelten Pixel, in denen der Unterschied zwischen den gemessenen und projizierten Daten über einem Schwellenwert liegt, als betroffen. Der Schwellenwert kann ein voreingestellter Bruchteil der gemessenen oder projizierten Werte sein oder mit dem Rauschen (beispielsweise einer Standardabweichung der Werte) verbunden sein, das für die Ansicht oder den Ansichtsteil angenommen wird. In einer Implementierung werden die betroffenen Ansichten oder Regionen anders behandelt (z. B. verarbeitet) als diejenigen Regionen oder Ansichten, die nicht von außerhalb liegenden Quellen betroffen sind, wodurch Artefakte im endgültigen Bild 156, die Strahlungsbeiträgen von außerhalb zugeschrieben werden können, verringert oder eliminiert werden können. Ferner kann eine Erweiterung der identifizierten betroffenen Regionen in manchen Ausführungsformen so durchgeführt werden, dass Pixel oder Regionen, die an die Bereiche angrenzen, von denen angenommen wird, dass sie von den außerhalb liegenden Quellen betroffen sind, ebenfalls anders behandelt werden, d. h. als Teil der betroffenen Regionen betrachtet werden. Das heißt, Regionen, die den Regionen benachbart sind, die als betroffene Regionen identifiziert worden sind oder die an diese Regionen angrenzen, können ebenfalls anders verarbeitet werden, um die Effekte von außerhalb liegenden Quellen zu bewältigen.
  • In einer Implementierung können die betroffenen Regionen oder Ansichten im Datensatz eliminiert oder abgeschwächt (d. h. benachteiligt) werden, um die Effekte der Strahlungsbeiträge von außerhalb zu verringern. Beispielsweise können in einer Ausführungsform durch Subtrahieren eines geschätzten Werts oder Beitrags der außerhalb liegenden Quellen (z. B. der Differenzdaten 142) von den entsprechenden Messungsansichten 122 eine Korrektur (Block 146) durchgeführt werden und korrigierte Ansichten 148 erzeugt werden. Die korrigierten Ansichten 148 können dann rekonstruiert werden (Block 150), um ein endgültiges Bild 156 zu erzeugen. In anderen Ausführungsformen können die betroffenen Regionen oder Ansichten anders verarbeitet werden als Pixel, von denen nicht festgestellt wurde, dass sie in einer betroffenen Region oder Ansicht liegen, beispielsweise durch Modifikation oder Anpassung der jeweiligen Kamerasystemmatrix 128. Somit kann die Rekonstruktion des endgültigen Bildes auf der ursprünglichen Kamerasystemmatrix 128, wie dargestellt, oder einer aktualisierten oder überarbeiteten Kamerasystemmatrix beruhen. Ein Beispiel für eine solche aktualisierte Kamerasystemmatrix wäre eines, in dem die Projektionsdaten für ein betroffenes Pixel Pi in der Projektion um irgendeinen Faktor (z. B. f < 1) verringert sind und die Systemmatrixfaktoren, welche die Beziehung zwischen Pixel Pi und Voxels Vj beschreiben (Mij) durch f·Mij ersetzt sind. Der Faktor f wäre für die am meisten betroffenen Pixel am kleinsten (d. h. die am meisten betroffenen Pixel würden am meisten benachteiligt oder abgeschwächt werden) und könnte mit zunehmendem Abstand vom beeinträchtigen Bereich und/oder bei Eintritt in einen nicht betroffenen Bereich auf 1,0 zulaufen.
  • In bestimmten Ausführungsformen kann das endgültige Bild 156 zusammen mit dem anfänglich rekonstruierten Bild 126 bereitgestellt (z. B. angezeigt) werden, beispielsweise nebeneinander. Eine solche Anordnung ermöglicht es dem Betrachter, das Bild mit und ohne zusätzliche Verarbeitung zu betrachten und zu vergleichen. Ebenso kann der Betrachter in anderen Implementierungen die Möglichkeit haben, die Messungsansichten zusammen mit den identifizierten betroffenen Bereichen zu betrachten, beispielsweise so, dass die betroffene Region über die Ansichten gelegt ist.
  • Vor dem Hintergrund der obigen Ausführungen werden nachstehend bestimmte Beispiele für Ausführungsformen und Implementierungen ausführlicher erläutert, um die Erklärung, wie Effekte von außerhalb liegenden Quellen identifiziert und/oder bewältigt werden können, zu vereinfachen. Beispielsweise kann der Vergleich 140 in einer Implementierung die Form einer Pixel-für-Pixel durchgeführten Subtraktion von jeweiligen Messungsansichten 122 und entsprechenden Schätzungsansichten 132 haben, durch die eine oder mehrere Differenzansichten erzeugt werden: DV(k, x, y) = MV(k,x,y – EV(k, x, y) (1)
  • Bei einem solchen Verfahren können die Differenzansichten durch Strahlung von außerhalb liegenden Quellen dominiert werden. Infolgedessen können statistisch hohe Pixelwerte in einer Differenzansicht ein Hinweis auf eine betroffene Region sein. Das heißt, Pixel in einer Differenzansicht, die einen Wert über (oder unter) einem festgelegten Schwellenwert aufweisen, können als Pixel identifiziert werden, die einer betroffenen Region der entsprechenden Messungsansicht entsprechen. Alternativ dazu kann bzw. können eine Glättung und/oder eine erzwungene Positivität angewendet werden, um betroffene Regionen innerhalb der Differenzansicht zu identifizieren.
  • In anderen Ausführungsformen kann bzw. können einer oder mehrere Schwellenwerte verwendet werden, um diejenigen Pixel, Regionen oder Ansichten zu identifizieren, die als betroffene Regionen eingestuft werden. Beispielsweise kann in einer Ausführungsform der durchschnittliche Pixelwert in einer Differenzansicht unter Verwendung sämtlicher verfügbarer Pixelwerte oder alternativ unter Verwendung nur der positiven Pixelwerte berechnet werden. Ebenso kann eine statistische Standardabweichung für das relevante Pixelmuster berechnet werden. Dann kann ein geeigneter Schwellenwert für einen Differenzwert auf Basis des durchschnittlichen Pixelwerts und der damit assoziierten Standardabweichung für diese Differenzansicht so berechnet werden, dass er Folgendem entspricht: TAR = (a)(APV) + (b)(SD) (2) wobei TAR das Schwellenpixel ist, das definiert, ob ein Pixel als Pixel eingestuft wird, das in einer beeinträchtigten Region liegt, oder nicht, APV der durchschnittliche Pixelwert für einige oder alle Pixel in einer bestimmten Ansicht ist, a der Gewichtungsfaktor ist, der an APV angelegt wird, SD eine statistische Standardabweichung für die Pixel ist, die verwendet wird, um APV zu berechnen, und b der Gewichtungsfaktor ist, der an SD angelegt wird. Beispielsweise kann a in einer Implementierung auf 3 gesetzt werden und b kann auf 0 gesetzt werden, so dass TAR = (3)(APV). (3)
  • In einer anderen Implementierung kann a auf 1,5 eingestellt sein und b kann auf 2 eingestellt sein, so dass: TAR = (1,5)(APV) + (2)(SD). (4)
  • Pixel in der Differenzansicht, die Werte aufweisen, die größer sind als der bestimmte Schwellenwert, können markiert, getaggt oder auf andere Weise als betroffene Pixel identifiziert werden.
  • In bestimmten Ausführungsformen können Pixel, die als betroffene Pixel identifiziert worden sind, verwendet werden, um größere betroffene Regionen innerhalb der einzelnen Differenzbilder zu identifizieren. Beispielsweise kann jede Ansicht, die einen größeren Prozentanteil an betroffenen Pixeln aufweist als festgelegt, als betroffene Region oder Ansicht definiert werden. Ebenso kann jede Ansicht, die mit einer Säuberungsmaske (nachstehend erörtert), die für diese Ansicht erzeugt wird, einen größeren Prozentanteil an betroffenen Pixeln aufweist als festgelegt, als betroffene Region oder Ansicht definiert werden.
  • Allgemeiner können die betroffenen Pixel in jeder Ansicht einem Segmentierungsprozess, der eine Logik verwenden kann, die Pixelstärken, unmittelbare Nachbarschaft oder Nähe zu anderen betroffenen Pixeln, sich anschließende Regionen usw. berücksichtigt, zugeführt werden, um eine betroffene Region oder ein betroffenes Segment in der jeweiligen Ansicht zu definieren. In solchen Implementierungen können die betroffenen Regionen als Regionen identifiziert oder bestimmt werden, die voll sind, geglättete Ränder haben, sich anschließen, eine einzelne betroffene Region sind usw.
  • Nachdem eine betroffene Region definiert oder segmentiert worden ist, kann sie erweitert (d. h. einem Erweiterungsprozess unterzogen) werden, um sicherzustellen, dass alle betroffenen Pixel in der betroffenen Region eingeschlossen sind. In bestimmten Implementierungen kann eine erweiterte betroffene Region die Projektion des zu untersuchenden Organs oder der zu untersuchenden Region teilweise überlagern. Eine solche Überlagerung kann erwünscht sein, da innerhalb der Region, die von der Projektion des zu untersuchenden Organs oder der zu untersuchenden Region eingeschlossen ist, die Counts so hoch sein können, dass ein statistischer Schwellenwert möglicherweise nicht empfindlich genug ist, um betroffene Pixel unterscheiden zu können. Das heißt, es kann sein, dass Effekte von außerhalb liegenden Quellen durch die Bilddaten, die mit dem zu untersuchenden Organ assoziiert sind, maskiert oder verdeckt werden.
  • Als Beispiel für die vorangehenden Konzepte ist in 13 eine Ansicht 180 abgebildet, in der sowohl ein zu untersuchendes Organ (hier ein Herz 64) als auch eine außerhalb liegende Strahlungsquelle abgebildet sind. Die außerhalb liegende Strahlungsquelle kann zu Anfang durch Identifizieren einer Reihe von betroffenen Pixeln 182, die sich allgemein über die Region, die von der außerhalb liegenden Quelle betroffen ist, verteilen, d. h. der betroffene Region, erkannt werden. Aufgrund von Schwelleneffekten, Rauschen und der allgemeinen Messungenauigkeit beschreiben die betroffenen Pixel möglicherweise keine kontinuierliche oder glatte Fläche, insbesondere dort, wo die betroffene Region oder das betroffene zu untersuchende Organ einander überlagern. Daher können die betroffenen Pixel 182 als Basis für den Segmentierungsprozess verwendet werden, durch den zu Anfang eine segmentierte betroffene Region 184 bestimmt wird. Die betroffene segmentierte Region 184 kann sich anschließen und kann aufgrund von Annahmen, die als Teil des Segmentierungsprozesses getroffen werden, an den Rändern geglättet werden. Außerdem kann die segmentierte betroffene Region 184 in dem dargestellten Beispiel einer Erweiterung unterzogen werden, um eine erste erweiterte Region 186 zu erzeugen, die Pixel einschließt, die der segmentierten betroffenen Region 184 benachbart sind oder an diese angrenzen. Auf diese Weise kann die Wahrscheinlichkeit dafür erhöht werden, dass sämtliche betroffenen Pixel in der ersten erweiterten betroffenen Region 186 eingeschlossen sind.
  • In dem abgebildeten Beispiel kann auch eine zweite Erweiterung in einem Bereich durchgeführt werden, in dem sich die betroffene Region und das zu untersuchende Organ überlagern, um eine zweite erweiterte betroffene Region 190 zu erzeugen. Insbesondere kann wegen der Überlagerung zwischen dem zu untersuchenden Organ und der betroffenen Region und aufgrund des starken Signals, das mit dem zu untersuchenden Organ assoziiert ist, eine größere Unsicherheit in Bezug auf das Vorliegen von Effekten von außerhalb liegenden Quellen in der Nähe des zu untersuchenden Organs bestehen. Die zweite Erweiterung berücksichtigt die Überlagerung zwischen der betroffenen Region und dem zu untersuchenden Organ, um die Zuverlässigkeit zu erhöhen, mit der sämtliche betroffenen Pixel von der Region eingeschlossen werden, von der angenommen wird, dass sie von der außerhalb liegenden Quelle beeinträchtigt ist. Beispielsweise kann die Erweiterung 190 darauf beruhen, dass die beeinträchtige Region konvex sein oder eine begrenzte Krümmung aufweisen oder an eine Projektion eines Organs von einem bekannten Atlas angepasst werden muss. Die Auswirkungen auf die betroffene Region können dann wie hierin erörtert bewältigt werden, auch in Bereichen, in denen das zu untersuchende Organ oder die zu untersuchende Region überlagert wird.
  • In bestimmten Ausführungsformen kann ein Säuberungsschritt durchgeführt werden, der eine oder mehrere Masken beinhaltet, die auf Basis des zu untersuchenden Organs oder der zu untersuchenden Region abgeleitet werden, beispielsweise nach einer Segmentierung des zu untersuchenden Organs oder der zu untersuchenden Region im Anfangsbild 126, wie oben erörtert. Beispielsweise kann in einer solchen Ausführungsform deutlich zu sehen sein, dass das zu untersuchende Organ oder die zu untersuchende Region in den erwarteten Ansichten 132 statistisch höhere Pixelwerte aufweist. Die Projektionen des zu untersuchenden Organs oder der zu untersuchenden Region in den einzelnen Ansichten kann als Maske verwendet werden, und Pixel außerhalb der Maskenregion in den einzelnen Ansichten können auf null oder einen Hintergrundpegel eingestellt werden. In bestimmten Implementierungen können die Pixel oder die Region, die mit dem zu untersuchenden Organ oder der zu untersuchenden Region assoziiert ist, vor der Bestimmung der Maskenregion in den einzelnen Ansichten einer Erweiterung unterzogen werden, um sicherzustellen, dass keine relevanten Pixel durch die Maske ungewollt ausgeschlossen werden.
  • Optional kann durch Konstruieren eines volumetrischen Bildes, in dem alle Voxelwerte außer denen in einem Volumen, das vermutlich von dem zu untersuchenden Organ oder der zu untersuchenden Region besetzt wird, auf null gesetzt sind, ein künstliches Objekt erzeugt werden. Es sei klargestellt, dass dieses Volumen erweitert werden kann, um angrenzende oder andere nahe Voxel einzuschließen, um sicherzustellen, dass es das zu untersuchende Organ oder die zu untersuchende Region einschließt. Das künstliche Objekt kann reprojiziert werden, um Masken für jede der gewünschten Ansichten zu erzeugen. Masken, die auf diese Weise erzeugt werden, können dann verwendet werden wie oben beschrieben, um die entsprechenden Ansichten zu säubern. Es sei klargestellt, dass zwar in manchen Ausführungsformen ein Säuberungsschritt (beispielsweise ein Säuberungsschritt unter Verwendung einer Maske) durchgeführt werden kann, aber ein solcher Säuberungsschritt in anderen Ausführungsschritten nicht durchgeführt wird.
  • Was die Korrektur von Pixelwerten in betroffenen Regionen und/oder die differentielle Verarbeitung dieser Pixel betrifft, so kann eine Reihe von Verfahren dafür gewählt werden. In einer Implementierung können die Pixelwerte innerhalb einer betroffenen Region durch andere Werte ersetzt werden, beispielsweise Werte, die unter Verwendung der Schätzungsansichten 132 oder eines geeigneten Modells erhalten werden. In manchen von diesen Ausführungsformen kann eine ganze Ansicht, die eine betroffene Region enthält, durch die entsprechende Schätzungsansicht 132 ersetzt werden. In anderen Ausführungsformen können die Pixelwerte in einer betroffenen Region durch einen gewichteten Durchschnitt der entsprechenden durch Messung erhaltenen und Schätzungsansichten 122 und 132 ersetzt werden, beispielsweise da, wo der betroffene Pixelwert gemäß der folgenden Formel eingestellt wird: Betroffener Pixelwert = (a)(MV) + (1 – a)(EV) (5) wobei 0 < a < 1, a eine geeignete Gewichtung ist, MV der entsprechende Pixelwert in der entsprechenden Messungsansicht ist und EV der entsprechende Pixelwert in der entsprechenden Schätzungsansicht ist. In anderen Ausführungsformen können Pixelwerte einer betroffenen Region innerhalb einer Differenzansicht einem Glättungsschritt unterzogen werden, wonach diese Pixelwerte von den entsprechenden Pixelwerten der entsprechenden Messungsansicht subtrahiert werden können. Ebenso kann eine gesamte Differenzansicht in einer anderen Implementierung einem Glättungsschritt unterzogen werden und von einer entsprechenden Messungsansicht, die eine betroffene Region enthält, subtrahiert werden.
  • Außerdem können in einer Implementierung betroffene Pixel und die entsprechenden Systemmatrixwerte durch einen unterdrückten Faktor (z. B. einen abgeschwächten oder benachteiligten Wert) ersetzt oder geändert werden. Beispielsweise kann der Pixelwert um einen Faktor gesenkt werden, der dem Verhältnis der „vermutlich aus dem Sichtfeld kommenden” und „vermutlich von außen kommenden” Counts entspricht. Die Elemente der Systemmatrix können dann in dem gleichen Verhältnis skaliert werden, um die korrekte Gewichtung beizubehalten. Solch ein Ansatz würde die Auswirkung dieser Ansichten verringern, ohne sie ganz zu verwerfen und ohne tatsächliche Daten durch eine Schätzung zu ersetzen.
  • In einer Ausführungsform, in der die Messungsansichten korrigiert werden, beispielsweise durch Einstellen der Pixelwerte in den betroffenen Regionen auf einen Hintergrundwert, um korrigierte Ansichten 148 zu erzeugen, kann die endgültige Projektion 150 ein Standard-Rekonstruktionsverfahren sein, das beispielsweise auf einer gefilterten Rückprojektion oder einem geeigneten iterativen Rekonstruktionsalgorithmus beruht.
  • In anderen Ausführungsformen, beispielsweise der, die in 14 dargestellt ist, kann eine differentielle Verarbeitung der identifizierten betroffenen Regionen durchgeführt werden. In einem Beispiel können die identifizierten betroffenen Regionen beispielsweise durch Anpassen (z. B. Reduzieren) (Block 200) von Werten in der Kamerasystemmatrix 128 differentiell behandelt werden, um eine korrigierte Kamerasystemmatrix 202 zu erzeugen, die bei der endgültigen Rekonstruktion 150 verwendet wird. Beispielsweise kann ein Kamerasystemmatrix-Wert, der einem betroffenen Pixel entspricht, so ersetzt werden, dass: Korrigierter CSM-Wert = (a)(Originaler CSM-Wert) (6) wobei 0 < a < 1. Es sei klargestellt, dass a so gewählt werden kann, dass er einem Faktor entspricht, mit dem ein zugehöriger Pixelwert, der mit diesem Element der Systemmatrix assoziiert ist, angepasst worden ist. Das heißt, a kann einem Skalierungsfaktor oder einem Gewicht entsprechen, mit dem eines oder mehrere entsprechende Pixel benachteiligt werden, weil sie als Pixel identifiziert worden sind, die von außerhalb liegenden Quellen beigetragen werden. Auf diese Weise kann die Beziehung zwischen der Detektorantwort und der beobachteten Voxel-Intensität in der Systemmatrix aufrechterhalten werden, während die Strahlungsbeiträge von außerhalb trotzdem berücksichtigt werden.
  • Die technischen Effekte der Erfindung beinhalten die Erzeugung eines rekonstruierten Volumens, in dem die Effekte von Emissionen von außerhalb liegenden Quellen reduziert oder eliminiert sind. Die technischen Effekte können einen Vergleich von Messungs- und Schätzungsansichten beinhalten, der auf Strahlungsemissionen von außerhalb hinweist, die zu Artefakten führen können. Ein endgültiges Bild, das frei ist von Artefakten oder dessen Artefakte verringert sind, kann auf Basis dieser Identifizierung der Unterschiede zwischen den Messungs- und Schätzungsansichten erzeugt werden. In manchen Ausführungsformen können korrigierte Ansichten auf Basis der identifizierten Unterschiede erzeugt werden. In anderen Ausführungsformen kann eine differentielle Verarbeitung von betroffenen Ansichtsregionen, die auf Basis der Unterschiede identifiziert worden sind, und anderer Ansichtsregionen durchgeführt werden.
  • In dieser Beschreibung werden Beispiele verwendet, um die Erfindung einschließlich der besten Ausführungsweise zu offenbaren, und auch, um Fachleute in die Lage zu versetzen, die Erfindung in die Praxis umzusetzen, wozu auch die Herstellung und Verwendung von Vorrichtungen und Systemen und die Durchführung von dazugehörigen Verfahren gehört. Der schutzwürde Bereich der Erfindung ist in den Ansprüchen definiert und kann auch andere Beispiele umfassen, die einem Fachmann einfallen mögen. Diese anderen Beispiele sollen im Bereich der Ansprüche liegen, wenn sie strukturelle Elemente aufweisen, die sich vom Wortlaut der Ansprüche nicht unterscheiden, oder wenn sie strukturelle Elemente aufweisen, die sich vom Wortlaut der Ansprüche nur unerheblich unterscheiden.
  • Die vorliegende Erfindung betrifft verschiedene Verfahren zur Entfernung oder Verringerung der Effekte von außerhalb liegenden Strahlungsquellen in Emissionstomographieanwendungen. In bestimmten Ausführungsformen wird eine Mehrzahl von Messungsansichten eines zu untersuchenden Organs oder einer zu untersuchenden Region erfasst. Die Messungsansichten können rekonstruiert werden, um ein Bild zu erhalten, und das Bild kann in dem Säuberungs- oder Korrekturprozess verwendet werden, der die Erzeugung eines endgültigen Bildes gestattet, in dem die Artefakte, die auf Effekte von außerhalb liegenden Quellen zurückzuführen sind, verringert oder eliminiert sind.

Claims (20)

  1. Bildanalysesystem, aufweisend: eine oder mehrere Verarbeitungskomponenten, die so gestaltet sind, dass sie Messungsansichten empfangen, die allgemein ein zu untersuchendes Organ oder eine zu untersuchende Region einschließen, wobei zumindest einige der Messungsansichten Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region aufweisen, und dass sie eine oder mehrere ausführbare Routinen ausführen, die in einem Speicher gespeichert sind; den Speicher, in dem die eine oder die mehreren ausführbaren Routinen gespeichert sind, wobei die gespeicherten Routinen, wenn sie ausgeführt werden, die Messungsansichten rekonstruieren, um ein Anfangsbild zu erzeugen, eine entsprechende Schätzungsansicht für jede Messungsansicht erzeugen, jede Messungsansicht mit der entsprechenden Schätzungsansicht vergleichen, um gegebenenfalls einen Hinweis auf die Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region in den einzelnen Messungsansichten abzuleiten, und die Hinweise verwenden, um ein endgültiges Bild zu rekonstruieren, in dem die Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region verringert oder eliminiert sind; und eine Schnittstellenschaltung, die so gestaltet ist, dass sie einem Anwender eine Interaktion mit dem Bildanalysesystem ermöglicht.
  2. Bildanalysesystem nach Anspruch 1, aufweisend: eine oder mehrere Detektoranordnungen, die zur Erfassung von Strahlung, die von einem Patienten emittiert wird, geeignet sind; eine Datenerfassungsschaltung, die so gestaltet ist, dass sie Signale von der einen oder den mehreren Detektoranordnungen erfasst, wobei die abgebildeten Messungsansichten die erfassten Signale sind oder von diesen abgeleitet sind.
  3. Bildanalysesystem nach Anspruch 1 oder Anspruch 2, wobei die eine oder die mehreren Detektoranordnung(en) Lochblenden-Gammakameras oder parallelgerichtete Detektoranordnungen beinhalten, die zur Messung von Gammastrahlen geeignet sind.
  4. Bildanalysesystem nach einem der vorangehenden Ansprüche, eine Positioniervorrichtung aufweisend, die in der Lage ist, die eine oder die mehreren Detektoranordnungen in Bezug auf den Patienten zu bewegen.
  5. Bildanalysesystem nach einem der vorangehenden Ansprüche, wobei der abgeleitete Hinweis eine Identifizierung von Pixeln, Regionen und/oder Ansichten beinhaltet, die von den Strahlungsbeiträgen von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region betroffen sind.
  6. Bildanalysesystem nach einem der vorangehenden Ansprüche, wobei die Rekonstruktion des endgültigen Bildes die differentielle Verarbeitung derjenigen Bereiche, die Hinweise auf Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region enthalten, und derjenigen Bereiche, die keinen solchen Hinweise enthalten, umfasst.
  7. Bildanalysesystem nach einem der vorangehenden Ansprüche, wobei die Rekonstruktion des endgültigen Bildes eine Kamerasystemmatrix verwendet, die auf Basis der identifizierten Hinweise auf Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region modifiziert worden ist.
  8. Bildanalysesystem nach einem der vorangehenden Ansprüche, wobei die Rekonstruktion des endgültigen Bildes die Abschwächung oder anderweitige Benachteiligung derjenigen Bereiche, die einen Hinweis auf Strahlungsbeiträge von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region enthalten, beinhaltet.
  9. Routine oder Routinen zur Codierung von maschinenlesbaren Medien, die, wenn sie von einem Prozessor ausgeführt werden, bewirken, dass Schritte ausgeführt werden, die Folgendes umfassen: Zugreifen auf eine Mehrzahl von verschiedenen Messungsansichten, wobei die Messungsansichten einen Strahlungsbeitrag von einem zu untersuchenden Organ oder einer zu untersuchenden Region abbilden und wobei eine oder mehrere der Messungsansichten auch einen sekundären Strahlungsbeitrag von außerhalb des zu untersuchenden Organs oder der zu untersuchenden Region beinhalten; Rekonstruieren eines Ausgangsbildes unter Verwendung der Mehrzahl von Messungsansichten; Segmentieren des zu untersuchenden Organs oder der zu untersuchenden Region in dem Ausgangsbild, um eine Maske zu bilden; Reprojizieren des Ausgangsbildes unter Verwendung der Maske, um eine Mehrzahl von gesäuberten Ansichten zu erzeugen, in denen die Pixel außerhalb des Bereichs, der von der Maske definiert wird, auf einen angepassten Wert eingestellt werden; und Rekonstruieren eines endgültigen Bildes zumindest teilweise auf Basis der Mehrzahl gesäuberter Ansichten.
  10. Maschinenlesbares Medium oder maschinenlesbare Medien nach Anspruch 9, wobei der angepasste Wert null, ein Hintergrundwert oder ein Durchschnittswert ist.
  11. Maschinenlesbares Medium oder maschinenlesbare Medien nach Anspruch 9 oder 10, wobei die Maske das segmentierte zu untersuchende Organ oder die segmentierte zu untersuchende Region und einen erweiterten Bereich in der Nähe des segmentierten zu untersuchenden Organs oder der segmentierten zu untersuchenden Region umfasst.
  12. Maschinenlesbares Medium oder maschinenlesbare Medien nach Anspruch 9 bis 11, wobei die Segmentierung des zu untersuchenden Organs oder der zu untersuchenden Region auf einem Vergleich von Voxelwerten mit einem Schwellenwert und/oder der Identifizierung eines angrenzenden Bereichs beruht.
  13. Bildrekonstruktionsverfahren, die folgenden Schritte umfassend: Erfassen einer Mehrzahl von Messungsansichten, die allgemein die Strahlung darstellen, die von einem zu untersuchenden Organ oder einer zu untersuchenden Region emittiert wird, das bzw. die aus mehreren Positionen betrachtet wird, wobei eine oder mehrere der Messungsansichten Strahlung aufweisen, die von einer Quelle emittiert wird, die in Bezug auf das Sichtfeld von mindestens einigen der übrigen Messungsansichten außerhalb liegt; Erzeugen einer entsprechenden Schätzungsansicht für zumindest einige der Messungsansichten; Vergleichen mindestens einer Messungsansicht mit der entsprechenden Schätzungsansicht, um eine oder mehrere betroffene Regionen in der einen oder den mehreren Messungsansichten zu identifizieren, die Strahlung enthalten, die von der außerhalb liegenden Quelle emittier wird; und Erzeugen eines endgültigen Bildes, in dem die Beiträge der identifizierten betroffenen Regionen verringert oder eliminiert sind.
  14. Bildrekonstruktionsverfahren nach Anspruch 13, wobei die Erzeugung des endgültigen Bildes, in dem die Beiträge der identifizierten betroffenen Regionen verringert oder eliminiert sind, die differentielle Verarbeitung der einen oder der mehreren betroffenen Regionen und derjenigen Regionen umfasst, die von der Strahlung, die von der außerhalb liegenden Quelle emittiert wird, nicht betroffen sind.
  15. Bildrekonstruktionsverfahren nach Anspruch 13 oder 14, wobei das Vergleichen einer Messungsansicht mit der entsprechenden Schätzungsansicht zur Identifizierung der einen oder der mehreren betroffenen Regionen die Durchführung einer Pixel-für-Pixel-Subtraktion der Messungsansicht von der entsprechenden Schätzungsansicht zur Erzeugung der jeweiligen Differenzansichten umfasst.
  16. Bildrekonstruktionsverfahren nach einem der Ansprüche 13 bis 15, wobei die eine oder die mehreren betroffenen Regionen eines oder mehrere betroffene Pixel, einen oder mehrere betroffene Bereiche, die auf Basis von identifizierten betroffenen Pixeln abgeleitet sind, oder eine oder mehrere betroffene Ansichten umfassen, von denen festgestellt worden ist, dass sie betroffene Pixel oberhalb eines bestimmten Höchstzahl enthalten.
  17. Bildrekonstruktionsverfahren nach einem der Ansprüche 13 bis 16, wobei die Erzeugung des endgültigen Bildes, in dem die Beiträge der identifizierten betroffenen Regionen verringert oder eliminiert sind, das Modifizieren einer Kamerasystemmatrix, die in dem Rekonstruktionsprozess verwendet wird, auf Basis der Identifizierung der einen oder der mehreren betroffenen Regionen umfasst.
  18. Bildrekonstruktionsverfahren nach einem der Ansprüche 13 bis 17, die Erweiterung der einen oder der mehreren betroffenen Regionen umfassend, um angrenzende Pixel oder Regionen einzuschließen.
  19. Bildrekonstruktionsverfahren nach einem der Ansprüche 13 bis 18, wobei die Erzeugung des endgültigen Bildes, in dem die Beiträge der identifizierten betroffenen Regionen verringert oder eliminiert sind, das Eliminieren, Abschwächen oder anderweitige Benachteiligen von Pixeln in den betroffenen Regionen bei der Rekonstruktion des endgültigen Bildes umfasst.
  20. Bildrekonstruktionsverfahren nach einem der Ansprüche 13 bis 19, wobei die eine oder die mehreren betroffenen Regionen auf Basis eines Schwellenwerts identifiziert werden.
DE102012105331A 2011-06-21 2012-06-19 Artefaktbeseitigung in Nuklearbildern Withdrawn DE102012105331A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/165,527 2011-06-21
US13/165,527 US8712124B2 (en) 2011-06-21 2011-06-21 Artifact removal in nuclear images

Publications (1)

Publication Number Publication Date
DE102012105331A1 true DE102012105331A1 (de) 2012-12-27

Family

ID=47321494

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012105331A Withdrawn DE102012105331A1 (de) 2011-06-21 2012-06-19 Artefaktbeseitigung in Nuklearbildern

Country Status (4)

Country Link
US (1) US8712124B2 (de)
JP (1) JP5975748B2 (de)
DE (1) DE102012105331A1 (de)
IL (1) IL220528A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013214361A1 (de) * 2013-07-23 2015-01-29 Siemens Aktiengesellschaft Verfahren zur Reduktion von Quantisierungsartefakten

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9752995B2 (en) * 2012-06-07 2017-09-05 Varex Imaging Corporation Correction of spatial artifacts in radiographic images
US9269167B2 (en) * 2013-01-28 2016-02-23 Koninklijke Philips N.V. SPECT motion-correction
US8917925B1 (en) 2014-03-28 2014-12-23 Heartflow, Inc. Systems and methods for data and model-driven image reconstruction and enhancement
US10245000B2 (en) 2014-12-12 2019-04-02 General Electric Company Method and system for defining a volume of interest in a physiological image
EP3361953A4 (de) * 2015-10-16 2019-09-11 Varian Medical Systems, Inc. Iterative bildrekonstruktion in der bildgeführten strahlentherapie
WO2020209826A1 (en) * 2019-04-08 2020-10-15 Siemens Medical Solutions Usa, Inc. Deep reinforcement learning for computer assisted reading and analysis
JP7121818B1 (ja) 2021-02-19 2022-08-18 Pdrファーマ株式会社 プログラム、画像処理装置及び画像処理方法

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9314398D0 (en) 1993-07-12 1993-08-25 Gen Electric Signal processing in scintillation cameras for nuclear medicine
US5689116A (en) 1996-06-05 1997-11-18 General Electric Company Systems and methods for calibrating a gamma camera
US6388258B1 (en) 1996-11-24 2002-05-14 Ge. Medical Systems Israel Ltd. Solid state gamma camera
US6242745B1 (en) 1996-11-24 2001-06-05 Ge Medical Systems Israel Ltd. Solid state gamma camera
US5929447A (en) 1997-05-09 1999-07-27 General Electric Company Gamma camera collimator
US5932878A (en) 1997-05-09 1999-08-03 General Electric Company Reduced dead time radiation detection system
US5936248A (en) 1997-12-31 1999-08-10 General Electric Company Multiple energy scintillation camera spatial correction method and apparatus
US6008494A (en) 1997-12-31 1999-12-28 Heukensfeldt Jansen; Floribertus P. M. Gamma camera stabilizer
US6252232B1 (en) 1998-06-29 2001-06-26 General Electric Company Digital integrator
JP4302841B2 (ja) * 1999-11-17 2009-07-29 株式会社島津製作所 核医学診断装置
US6356619B1 (en) 2000-06-02 2002-03-12 General Electric Company Varying x-ray tube focal spot dimensions to normalize impact temperature
US6574301B1 (en) 2002-02-11 2003-06-03 Ge Medical Systems Global Technology Company, Llc CT data acquisition system trigger jitter filter
US20040227091A1 (en) 2003-05-14 2004-11-18 Leblanc James Walter Methods and apparatus for radiation detecting and imaging using monolithic detectors
US20050107694A1 (en) 2003-11-17 2005-05-19 Jansen Floribertus H. Method and system for ultrasonic tagging of fluorescence
US20050255044A1 (en) 2004-05-14 2005-11-17 Lomnes Stephen J Contrast agent for combined modality imaging and methods and systems thereof
US7518114B2 (en) 2004-11-10 2009-04-14 General Electric Company Method and system for imaging a patient
US7495225B2 (en) 2004-12-08 2009-02-24 General Electric Company Methods and apparatus for pixilated detector masking
US7301144B2 (en) 2004-12-29 2007-11-27 General Electric Company Method and system for calibrating a positron emission tomography system
US7227149B2 (en) 2004-12-30 2007-06-05 General Electric Company Method and system for positron emission tomography image reconstruction
US7312455B2 (en) 2005-01-12 2007-12-25 The General Electric Company Method and system for scatter correction in a positron emission tomography system
US8126537B2 (en) 2005-02-04 2012-02-28 General Electric Company Method and apparatus for a multi-modality imaging system
US7514885B2 (en) 2005-03-08 2009-04-07 General Electric Company Methods and systems for medical imaging
US7405405B2 (en) 2005-05-17 2008-07-29 General Electric Company Method and system for reconstructing an image in a positron emission tomography (PET) system
US7592596B2 (en) 2005-06-03 2009-09-22 Ge Medical Systems Israel, Ltd Methods and systems for medical imaging
US8067744B2 (en) 2005-07-06 2011-11-29 Ge Healthcare Israel Method and apparatus of detecting ionizing radiation
US7332724B2 (en) 2005-07-26 2008-02-19 General Electric Company Method and apparatus for acquiring radiation data
US7381959B2 (en) 2005-08-17 2008-06-03 General Electric Company Technique for reconstructing PET scan images
US7345281B2 (en) 2005-09-14 2008-03-18 General Electric Company Method and system for calibrating a time of flight positron emission tomography system
US7211799B2 (en) 2005-09-14 2007-05-01 General Electric Company Method and system for calibrating a time of flight positron emission tomography system
US8010184B2 (en) 2005-11-30 2011-08-30 General Electric Company Method and apparatus for automatically characterizing a malignancy
US7531807B2 (en) 2006-01-19 2009-05-12 Ge Medical Systems Israel, Ltd. Methods and systems for automatic body-contouring imaging
US7723688B2 (en) 2006-01-19 2010-05-25 General Electric Company Methods and systems for automatic body-contouring imaging
EP2024902A4 (de) * 2006-02-13 2012-06-13 Univ Chicago Bildrekonstruktion aus begrenzten oder unvollständigen daten
US7408163B2 (en) 2006-02-21 2008-08-05 General Electric Company Methods and systems for medical imaging
US7328623B2 (en) 2006-03-20 2008-02-12 General Electric Company Temperature and/or pressure sensor assembly
US7693565B2 (en) 2006-03-31 2010-04-06 General Electric Company Method and apparatus for automatically positioning a structure within a field of view
US7557352B2 (en) 2006-06-02 2009-07-07 Ge Medical Systems Israel, Ltd. Methods and systems for controlling medical imaging
US20080004533A1 (en) 2006-06-30 2008-01-03 General Electric Company Optical imaging systems and methods
US7676869B2 (en) 2006-07-06 2010-03-16 Ge Healthcare Israel Apparatus for supporting a patient in a prone position during diagnostic imaging
US7671331B2 (en) 2006-07-17 2010-03-02 General Electric Company Apparatus and methods for processing imaging data from multiple detectors
US7592597B2 (en) 2006-08-03 2009-09-22 Ge Healthcare Israel Method and apparatus for imaging with imaging detectors having small fields of view
US7470907B2 (en) 2006-12-15 2008-12-30 General Electric Company Cross-slit collimator method and system
WO2008075037A1 (en) 2006-12-18 2008-06-26 Hammersmith Imanet Limited Method of and software for calculating a scatter estimate for tomographic scanning and system for tomographic scanning
US7339174B1 (en) 2007-02-09 2008-03-04 General Electric Company Combined slit/pinhole collimator method and system
US7375338B1 (en) 2007-03-07 2008-05-20 General Electric Company Swappable collimators method and system
US7723690B2 (en) 2007-03-30 2010-05-25 General Electric Company Adjustable slit collimators method and system
US7569826B2 (en) 2007-03-30 2009-08-04 General Electric Company Adjustable collimators method and system
US7439514B1 (en) 2007-03-30 2008-10-21 General Electric Company Adjustable pinhole collimators method and system
US7680240B2 (en) * 2007-03-30 2010-03-16 General Electric Company Iterative reconstruction of tomographic image data method and system
US7692160B2 (en) 2007-05-31 2010-04-06 General Electric Company Method and system of optical imaging for target detection in a scattering medium
US20080304619A1 (en) 2007-06-07 2008-12-11 General Electric Company Modular Multi-Hole Collimators Method and System
JP4972474B2 (ja) * 2007-06-15 2012-07-11 株式会社日立製作所 核医学診断装置、画像処理方法およびガンマカメラ
US7671340B2 (en) 2007-07-16 2010-03-02 General Electric Company Adjustable-focal-length collimators method and system
CN102160085B (zh) * 2008-09-16 2013-11-20 皇家飞利浦电子股份有限公司 成像装置
US8355551B2 (en) 2009-02-27 2013-01-15 General Electric Company Method and apparatus for reducing image artifacts
US7829856B2 (en) 2009-03-31 2010-11-09 General Electric Company Apparatus and methods for determining a system matrix for pinhole collimator imaging systems
JP5662447B2 (ja) * 2009-08-20 2015-01-28 コーニンクレッカ フィリップス エヌ ヴェ 関心領域画像の再構成
US20110110566A1 (en) * 2009-11-11 2011-05-12 Jonathan Sachs Method and apparatus for reducing image noise
US8022357B2 (en) 2009-12-30 2011-09-20 General Electric Company Systems and methods for generating calibration maps for non-pixelated gamma detectors
US8466420B2 (en) 2010-06-04 2013-06-18 General Electric Company Charge loss correction
US9129426B2 (en) 2010-08-31 2015-09-08 General Electric Company Motion compensation in image processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013214361A1 (de) * 2013-07-23 2015-01-29 Siemens Aktiengesellschaft Verfahren zur Reduktion von Quantisierungsartefakten

Also Published As

Publication number Publication date
JP5975748B2 (ja) 2016-08-23
US8712124B2 (en) 2014-04-29
JP2013003145A (ja) 2013-01-07
IL220528A (en) 2016-04-21
US20120328173A1 (en) 2012-12-27

Similar Documents

Publication Publication Date Title
DE102012105331A1 (de) Artefaktbeseitigung in Nuklearbildern
DE102012211892B4 (de) Verfahren zur Extraktion eines Datensatzes aus einem medizinischen Bilddatensatz sowie medizinische Bildaufnahmeeinrichtung und Computerprogramm
EP3111417B1 (de) Rauschreduktion in tomogrammen
DE10345704A1 (de) Verfahren und Einrichtung für eine Bildgebung mit mehrfachen Modalitäten
DE102010037037A1 (de) Bewegungskorrektur in tomographischen Bildern
DE112015002802B4 (de) Verbesserte bildrekonstruktion für ein volumen basierend auf projektionsdatensätzen
DE102012110497A1 (de) Verfahren und Vorrichtung für iterative Rekonstruktion
DE102013217351A1 (de) Bildbasierte Bewegungskompensation von Bilddaten
DE102011086771A1 (de) Computertomographieanlage und Verfahren zum Ermitteln von Volumeninformationen zu einem Körper
DE69723314T2 (de) Direkte tomographische rekonstruktion
EP2556489B1 (de) Abgleich von positronen emissions tomographen unter verwendung eines virtuellen tomographen
CN109791701A (zh) 具有对噪声诱发的伪影的形成的动态抑制的迭代图像重建
DE112015002935B4 (de) Rekonstruktion mit mehreren Photopeaks in quantitativer Einzelphotonen-Emissionscomputertomographie
DE112015002809T5 (de) Multiple Emissionsenergien bei Einzelphotonen-Emissionscomputertomographie
DE102012222714A1 (de) Ermittlung eines Mehrfachenergie-Bildes
DE112015002766B4 (de) Kalibrierung bei Einzelphotonen-Emissionscomputertomographie mit Multiemissionsenergien
DE102015208555A1 (de) Verfahren zur Bildverbesserung von Bilddaten eines dentalmedizinischen Bilderzeugungssystems
DE112014005888T5 (de) Verfahren und Vorrichtung zur bereichsspezifischen MR-basierten Abschwächungskorrektur von zeitbereichsgefilterten PET-Studien
DE102014210420A1 (de) Verfahren zur Reduzierung von Trunkierungsartefakten und Röntgeneinrichtung
DE102013209939A1 (de) Verfahren zur Bewegungskorrektur von Emissionscomputertomographiedaten mittels Magnetresonanztomographiedaten
DE112015002679T5 (de) Gammakamera-totzeitbestimmung in echtzeit unter verwendung langlebiger radioisotope
DE112015002831T5 (de) Tomographische rekonstruktion mehrerer ansichten
DE202012012506U1 (de) Verbesserte SPECT-Bewegungskorrektur
DE112020006198T5 (de) Vorrichtung, System, Verfahren und Computerprogramm zum Bereitstellen eines Kernbildes einer interessiernden Region eines Patienten
DE102010034918A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Güteeinformation für eine Röntgenbildgebung

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee