DE19945606A1 - Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts - Google Patents

Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts

Info

Publication number
DE19945606A1
DE19945606A1 DE19945606A DE19945606A DE19945606A1 DE 19945606 A1 DE19945606 A1 DE 19945606A1 DE 19945606 A DE19945606 A DE 19945606A DE 19945606 A DE19945606 A DE 19945606A DE 19945606 A1 DE19945606 A1 DE 19945606A1
Authority
DE
Germany
Prior art keywords
data
image reconstruction
projection
mask
correction data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19945606A
Other languages
English (en)
Inventor
Kwok Tam
Ali Bani-Hashemi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corporate Research Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of DE19945606A1 publication Critical patent/DE19945606A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/027Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis characterised by the use of a particular data acquisition trajectory, e.g. helical or spiral
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/421Filtered back projection [FBP]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S378/00X-ray or gamma ray systems or devices
    • Y10S378/901Computer tomography program or processor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Beim dreidimensionalen (3D) computerisierten tomographischen (CT) Abbilden eines interessierenden Bereiches (ROI) eines Objekts wird die Bildrekonstruktion auf mehrere Sätze von 2D-Konusbündel-Projektionsdaten angewendet. Es wird eine Maske auf jeden Satz von Projektionsdaten angewendet, so daß Daten innerhalb der Grenzen jeder Maske eine entsprechende Anzahl von maskierten Datensätzen bildet. Dann wird jeder maskierte Datensatz längs mehreren parallelen Linien gefiltert und jeder gefilterte 2D-Datensatz entspricht einer Berechnung von Radonderivat-Daten. Sodann werden für die ersten Schätzungen jeweils Korrekturdaten erzeugt. Zuletzt werden die gefilterten Datensätze und die berechneten Korrekturdaten in einen 3D-Raum rückprojiziert.

Description

Die Erfindung bezieht sich auf ein Verfahren nach dem Oberbe­ griff des Anspruchs 1 sowie auf eine Vorrichtung zur Durch­ führung desselben nach dem Oberbegriff des Anspruchs 18.
Ein Konusbündel-Bildrekonstruktionsverfahren mit gefilterter Rückprojektion (FBP) wird von H. Kudo und T. Saito in ihrem Artikel mit dem Titel "Derivation and Implementation of a Cone-Beam Reconstruction Algorithm for Nonplanar Orbits", in IEEE Trans. Med. Imag., MI-13(1994) 196-211, beschrieben, auf den hier Bezug genommen wird.
Kurz gesagt besteht das FBP-Verfahren aus den folgenden Schritten bei jeder Konusbündelbetrachtung (d. h. bei jeder Stellung der Strahlungsquelle, wenn sie um das Objekt herum abtastet, und bei der ein Abbildungsdetektor einen entspre­ chenden Satz von Projektionsdaten erfaßt):
  • 1. Berechnen einer 1D-Projektion (d. h. eines Linieninte­ grals) des gemessenen Konusbündelbildes, das auf einer Detektorebene 1 unter jedem von mehreren Win­ keln θ erfaßt wurde. Dieser Schritt ist durch die Fig. 1A für einen gegebenen Winkel θ1 aus einer Anzahl von Winkeln θ dargestellt, wobei die Projek­ tion 2 bei den Koordinaten (r,θ) aus den integrierten Werten des Konusbündelbildes 4 auf der Detektorebene 1 längs einer Anzahl von parallelen Linien L(r,θ) besteht, die senkrecht zum Winkel θ liegen, wobei jede Linie L in einem Schrittabstand r von einem Nullpunkt O liegt. Allgemein, wenn die Detektorebene 1 eine N × N-Anordnung von Pixels umfaßt, dann wird die Anzahl von Winkeln θ normalerweise durch πN/2 gegeben.
  • 2. Filtern jeder 1D-Projektion entsprechend einem d/dr- Filter, was zu einem neuen Satz von Werten bei jeder der r,θ-Koordinaten führt, wie durch die gefilterte Projektion 6 für den Winkel θ1 in Fig. 1A gezeigt.
  • 3. Normalisieren der gefilterten Projektionen mit einer Normalisierungsfunktion M(r,θ). Eine Normalisierung ist erforderlich, um die Anzahl von Malen zu berück­ sichtigen, welche die Integrationsebene Q(r,θ), welche die Quellenstellung und die Linie L(r,θ) schneidet, die Abtastbahn schneidet, da die an jeder Abtastbahn-Überschneidung erzeugten Daten einen Beitrag zur Bildrekonstruktion auf der Ebene Q(r,θ) erzeugt.
  • 4. Rückprojektion der gefilterten Projektion 6 von jedem Winkel θ in einen 2D-Objektraum 7, der mit der Detek­ torebene 1 zusammenfällt. Dieser Schritt ist in Fig. 1B dargestellt, wobei Linien 8 den Wert von jeder r,θ-Koordinate in den 2D-Raum 7 in einer Richtung senkrecht zu jedem θ ausbreiten.
  • 5. Durchführung einer 1D-d/dt-Filterung des im 2D-Raum 7 durch den Schritt 4 gebildeten Rückprojektionsbildes. Die 1D-Filterung wird in Richtung der Abtastbahn, d. h. längs Linien 10, durchgeführt, wo t in die Richtung der Abtastbahn weist.
  • 6. Durchführung einer gewichteten 3D-Rückprojektion der erhaltenen Daten im 2D-Raum 7 (d. h. von jedem Pixel im Detektor) auf eine Anzahl von Probepunkten P in einem 3D-Objektvolumen 12. Die jedem Punkt P zugeord­ nete Dichte wird durch den umgekehrten Wert des Quadrats des Abstands zwischen dem Punkt und den Raumkoordinaten der Röntgenstrahlenquelle gewichtet (siehe Gleichung (59) des erwähnten Artikels von Kudo et al).
Das obige bekannte Verfahren wird nachfolgend als 6-schritti­ ges Verfahren bezeichnet. Es wird bei diesem Verfahren vor­ ausgesetzt, daß das ganze Konusbündelbild des Objekts auf dem Detektor des Abbildungssystems aufgefangen wird. Man nehme eine Ebene Q(r,θ) an, welche das Objekt schneidet und von der Quelle und der Linie L(r,θ) auf dem Detektor unter einem Win­ kel θ und in einem Abstand r vom Nullpunkt gebildet wird. Durch Ignorieren der Funktion M(r,θ) berechnen die Operatio­ nen 1 bis 6 den Beitrag der rekonstruierten Objekdichte auf der Ebene Q(r,θ) aus den die Ebene und ihre unmittelbare Um­ gebung beleuchtenden Röntgenstrahlendaten. Da das 6-schritti­ ge Verfahren Detektor-gesteuert ist, wird ein Beitrag von den die Ebene beleuchtenden Daten jedesmal berechnet, wenn die Ebene die Abtastbahn überschneidet und so durch das Röntgen­ strahlenbündel beleuchtet wird. Dementsprechend wird die Funktion M(r,θ) nach der Filterfunktion in Schritt 2 benutzt, um die Resultate zu normalisieren. Eine Normalisierung ist besonders unerwünscht, da sie die Vorberechnung und Speiche­ rung einer 2D-Anordnung M(r,θ) für jede Quellenstellung längs einer Bildabtastbahn erfordert. Da gewöhnlich hunderte, wenn nicht tausende von Quellenstellungen vorhanden sind, ist diese Art von Normalisierung sowohl berechnungsmäßig aufwen­ dig und hinsichtlich der Betriebsmittel (Computerspeicher) kostspielig. Im Artikel von Kudo et al wird jedoch auf Seite 203 bemerkt, daß in dem besonderen Fall, daß die Abtastbahn ein Kreis ist, die Schritte 1 bis 5 bei einem einzigen Convo­ lution-Schritt vereinfacht werden können, der im wesentlichen eine Rampenfilterung des Konusbündelbildes in Richtung der Abtastbahn umfaßt. Dieses Rampenfiltern entspricht dem be­ kannten Feldkamp-Algorithmus für eine einzige kreisförmige Umlaufbahn, wobei dieser Algorithmus ausführlich in dem Artikel von L. A. Feldkamp, L. C. Davis und J. W. Kress mit dem Titel "Practical cone-beam algorithm", veröffentlicht in J. Opt. Soc. Am. A. Band 1, 1984, Seiten 612-619, beschrieben ist, auf den hier Bezug genommen wird (siehe insbesondere die Convolution-Funktionsgleichungen 15 und 16 auf Seite 614, welche die Convolution-Funktion folgendermaßen beschrei­ ben:
g(Y) = Re∫0 wy0exp(iwY)wdw).
Der Schlüssel zu dieser Vereinfachung liegt darin, daß im besonderen Fall einer kreisförmigen Abtastbahn die Normali­ sierungsfunktion M(r,θ) eine Konstante und gleich 2 ist. Dadurch kann die gefilterte Projektion bei jedem r,θ, die sich nach Schritt 2 ergibt, lediglich durch 2 geteilt werden, um die Datenredundanz zu kompensieren.
Die US-Patentanmeldung mit der Ser. No. 09/106 537, auf die hier Bezug genommen wird, beschreibt, wie diese Rampenfil­ ter-Vereinfachung für die Bildrekonstruktion in einem Konus­ bündel-Abbildungssystem mit anderen als einen einzigen Kreis enthaltenden Quellenabtastbahnen, wie eine spiralige Abtast­ bahn, angewendet wird, und darüber hinaus in einem Konusbün­ del-Abbildungssystem mit einem kurzen Detektor, d. h. einem Detektor, der nur einen Teil des 2D-Konusbündelbildes bei jeder Konusbündelbetrachtung (d. h. bei jeder Quellenstellung) einfängt. Wie ausführlicher in der genannten US-Patentanmel­ dung beschrieben, umfaßt ein vereinfachtes "3-Schritt"-Ver­ fahren:
  • 1. Anwenden einer Maske auf jeden Satz von 2D-Konusbündel- Projektionsdaten, die in jeder Quellenstellung erfaßt werden, und dadurch Ausbilden eines maskierten 2D-Daten­ satzes für jede Quellenstellung,
  • 2. Rampenfiltern der 2D-Konusbündel-Projektionsdaten inner­ halb jedes maskierten 2D-Datensatzes, wodurch rampenge­ filterte 2D-Datensätze gebildet werden, und
  • 3. Unterwerfen der rampengefilterten 2D-Datensätze einer gewichteten 3D-Rückprojektion in einen 3D-Raum entspre­ chend einem vollständigen Betrachtungsfeld eines interes­ sierenden Bereiches (region of interest bzw. ROI) des Gegenstandes und dadurch Rekonstruieren im 3D-Raum eines 3D-Bildes des ROI im Objekt.
Ein wesentlicher Teil dieser früheren Erfindung ist das Maskierungsverfahren. Das Maskieren ermöglicht eine große Beschleunigung des Bildrekonstruktionsvorgangs infolge eines verringerten Bedarfs an ausführlichen Berechnungen, das Ausschalten der Notwendigkeit des Normalisierungsschrittes 3 des 6-schrittigen Verfahrens (und dadurch Vermeiden des Bedarfs an beträchtlichem Speicherplatz für die Normalisie­ rungsfaktoren), und darüber hinaus kann das Abbildungssystem einen kurzen Detektor verwenden, d. h. einen, der nicht bei jeder Quellenstellung eine vollständige Ansicht des ROI des Objekts erfaßt.
Die frühere Erfindung von K. Tam kann als Anwenden des Maskie­ rens auf die Schritte 1 bis 5 des 6-schrittigen Verfahrens nach Kudo et al. gefolgt von Schritt 6, betrachtet werden. Die Anwendung des Maskierens auf die Schritte 1 und 2 von Kudo et al entspricht im Grundgedanken den folgenden Operationen:
  • 1. Berechnen der Integrale an durch die Maske begrenzten Liniensegmenten, und
  • 2. Berechnen der Differenz der so an benachbarten paral­ lelen Liniensegmenten berechneten Linienintegrale.
Es ist beabsichtigt, daß die Schritte ml und m2 eine dem Radon-Derivat für den Teil der Ebene Q(r,θ) proportionale Quantität ergeben, der durch die gegenwärtige Quellenstellung und die frühere und die nachfolgende Quellenstellung defi­ niert ist. Die Bereiche für verschiedene Teile der Ebene Q(r,θ) sind in Fig. 3 dargestellt und werden weiter unten ausführlich beschrieben.
Die Operationen in den Schritten m1 und m2 sind in Fig. 4 dargestellt. Wie darin gezeigt, sind L, L1' und L2' drei eng benachbarte parallele Liniensegmente, die durch eine Maske 400 begrenzt sind, wobei L in der Mitte zwischen L1' und L2' liegt. Das Liniensegment L entspricht vielen solchen Liniensegmenten, die unter verschiedenen Winkeln in der Maske 400 gebildet sind, und entspricht den vorher beschriebenen Linien L(r,θ) der Fig. 1A und den Linien 8 in Fig. 1B, wie es dem Fachmann auf diesem Gebiet bekannt ist, die zum Berechnen von Radonderivat-Daten aus den Konus­ bündel-Projektionsdaten verwendet werden. Beim vorliegenden Verfahren wird die arithmetische Differenz zwischen den Integralen, die für ein gegebenes Paar von Liniensegmenten L1' und L2' in der Maske 400 berechnet werden, be­ stimmt und entspricht dem Radonderivat der Teilebene, die durch das Liniensegment L die momentane Quellenstellung bis zu einer multiplikativen Konstante definiert ist. Tatsächlich ergibt jedoch dieses Maskierungsverfahren nur eine Annäherung des Radonderivats der Teilebene. Dies liegt daran, daß, wie in US-5 748 697 beschrieben, das Radonderivat für den rele­ vanten Teil der Ebene Q(r,θ) berechnet werden sollte, wie in Fig. 5 gezeigt. Wie aus Fig. 5 hervorgeht, ist das Linienseg­ ment L das gleiche wie das in Fig. 4 gezeigte, jedoch werden die Liniensegmente L1 und L2 durch Orthogonalver­ schiebung von L erhalten, wie sie sein sollten. Daher sind im Gegensatz dazu, was in Fig. 4 gezeigt ist, die Enden der Liniensegmente L1 und L2 gemäß Fig. 5 nicht durch die Maske 500 begrenzt. Das Enden der Liniensegmente an den Grenzen der Maske wird nachfolgend als "hartes Maskieren" bezeichnet. Infolge des harten Maskierens ergibt die arith­ metische Differenz zwischen den an den Liniensegmenten L1' und L2' berechneten Integralen nicht ein exaktes Radonderivat, d. h. eines, das sich nur durch eine multiplika­ tive Konstante unterscheidet.
US-Patentanmeldung Ser. No. 09/123 574 beschreibt ein Verfah­ ren zum Berechnen von 2D-Korrekturdaten, die, wenn sie mit den rampengefilterten annähernden 2D-Datensätzen kombiniert werden, eine exakte Bildrekonstruktion ergeben. Die 2D-Kor­ rekturdaten erfordern jedoch eine 3D-Rückprojektion von einem virtuellen Detektor, welcher das ganze Objekt überdeckt, statt vom tatsächlichen Detektor. Der virtuelle Detektor ist gewöhnlich viel größer als der tatsächliche Detektor, und daher ist die Signalverarbeitung zur Durchführung der 3D- Rückprojektion der 2D-Korrekturdaten wesentlich größer als für die anggenäherten Daten.
Durch die Erfindung soll die Menge der auf die Korrekturdaten bezogenen Signalverarbeitung, die zur Entwicklung einer exakten Bildrekonstruktion erforderlich ist, ohne wesentliche Beeinträchtigung der Genauigkeit der Bildrekonstruktion verringert werden.
Diese Aufgabe wird erfindungsgemäß hinsichtlich des Verfah­ rens durch die Merkmale des Anspruchs 1 und hinsichtlich der Vorrichtung durch die Merkmale des Anspruchs 18 gelöst. Die Unteransprüche sind auf vorteilhafte Ausgestaltungen der Erfindung gerichtet.
Die Erfindung schafft ein Verfahren und eine Vorrichtung für dreidimensionales (3D) computerisiertes tomographisches (CT) Abbilden eines interessierenden Bereichs (ROI) eines Objekts, wobei die Bildrekonstruktionsverarbeitung auf eine Anzahl von Sätzen von 2D-Konusbündel-Projektionsdaten angewendet wird, von denen jeder Satz auf einem 2D-Detektor bei einer ent­ sprechenden Anzahl von Abtastbahn-Quellenstellungen erfaßt wird. Ein erster Bildrekonstruktion-Verarbeitungsschritt besteht aus dem Anwenden einer Maske auf jeden Satz der Projektionsdaten, so daß Daten innerhalb der Grenzen jeder Maske eine entsprechende Anzahl von maskierten 2D-Datensätzen bilden. Der nächste Schritt besteht aus dem Rampenfiltern der Daten innerhalb jedes maskierten 2D-Datensätzen längs einer Anzahl von darin gebildeten parallelen Linien, um eine ent­ sprechende Anzahl von gefilterteh 2D-Datensätzen zu erzeugen. Jeder gefilterte 2D-Datensatz entspricht einer Berechnung einer ersten Schätzung der Radonderivat-Daten, die aus einem gegebenen Satz der 2D-Konusbündel-Projektionsdaten bestimmt wird. Der nächste Schritt besteht aus dem adaptiven Erzeugen von 2D-Korrekturdaten für jede der ersten Schätzungen der Radonderivat-Daten. Der letzte Schritt besteht aus dem Kombi­ nieren jedes gefilterten 2D-Datensatzes und der dafür berech­ neten adaptiv bestimmten 2D-Korrekturdaten in einer gewichte­ ten 3D-Rückprojektionsweise in einen 3D-Raum und dadurch Rekonstruieren eines 3D-Bildes des ROI im Objekt.
Anhand der Figuren werden der nächstliegende Stand der Tech­ nik sowie vorteilhafte Ausgestaltungen der Erfindung näher erläutert. Es zeigen:
Fig. 1A und 1B die bekannte 3D-Rückprojektionslösung für Konusbündel-Bildrekonstruktion nach Kudo et al. wie oben beschrieben,
Fig. 2 eine Konusbündel-Abbildungsvorrichtung für die Durchführung einer Bildrekonstruktion gemäß der Erfindung,
Fig. 3 einen Vorgang zur Datenkombination, wenn eine Bildrekonstruktion gemäß der Erfindung durchgeführt wird,
Fig. 4 und 5 harte bzw. weiche Maskierung, wobei je­ des Verfahren zur Erzeugung von Radonderivat-Daten aus der erfaßten Konusbündelprojektion anwendbar ist,
Fig. 6 eine Darstellung zum Verständnis der Erzeugung der in den Fig. 4, 5 und 7 bis 10 gezeigten Masken,
Fig. 7 und 8 die Form der Masken, die bei Quellen­ stellungen nahe der oberen und unteren Spiralabtastbahn gemäß Fig. 2 verwendet werden,
Fig. 9 das Rampenfiltern eines maskierten Datensatzes,
Fig. 10 eine Darstellung der arithmethischen Differenz zwischen harter und weicher Maskierung und zum Verständnis, wie genauere Radonderivat-Daten zu erzeugen sind,
Fig. 11 die relative Menge von Korrekturdaten, die als Funktion des Winkels erzeugt wird, den die Rückprojektions­ richtung mit den Maskengrenzen einschließt, und
Fig. 12 den relativen Wert des Beitrags zu den Radonde­ rivat-Daten aus den Korrekturdaten als Funktion des Winkels, den die Rückprojektionsrichtung mit den Maskengrenzen ein­ schließt.
Fig. 2 zeigt eine Konusbündel-3D-CT-Abbildungsvorrichtung zum Erfassen und Verarbeiten von erfaßten Projektionsdaten gemäß der vorliegenden Erfindung. Die dargestellte Abbil­ dungsvorrichtung ist aufgebaut und arbeitet im wesentlichen nach den gleichen Grundsätzen, die in US 5 257 183 und US 5 453 666 beschrieben sind und auf die hier Bezug genommen wird, ausgenommen die nachfolgende Beschreibung bezüglich der Ergänzung des Bildrekonstruktionsvorgangs gemäß der vorlie­ genden Erfindung.
Wie in Fig. 2 gezeigt, veranlaßt in Abhängigkeit von Steuer­ signalen aus einem geeignet programmierten Computer 206 ein computergesteuerter Manipulator 208 ein Zusammenwirken (Ab­ tasten) einer Quelle 210 eines konus- oder pyramidenförmigen Energiebündels (wie Röntgenstrahlen) und einer zweidimensio­ nalen pixelierten Detektoranordnung 212 an einer Anzahl von diskreten, nacheinander auftretenden benachbarten Quellen­ stellungen längs einer vorbestimmten Quellenabtastbahn. Bei der dargestellten Ausführungsform ist die Abtastbahn als spiralige Abtastbahn 214 dargestellt, die auf eine vorbe­ stimmte Achse 215 eines Objekts 216 zentriert ist. Andere Arten von Abtastbahnen, die das Objekt 216 umfassen und durchsetzen, können ebenfalls angewendet werden, wie jedoch weiter unten ersichtlich wird, wird eine Abtastbahn 214 bevorzugt, die einen hohen Symmetriegrad in ihrer Parallel­ projektion zeigt.
Das einzige Höhenerfordernis des Detektors besteht darin, daß es mehr als den Abstand zwischen benachbarten Windungen einer Projektion der spiraligen Abtastbahn am Detektor umfaßt. Wenn nur ein interessierender Bereich (region of interest - ROI) im Objekt 216 bei einer bevorzugten Ausführungsform abzubil­ den ist, wird das bekannte Verfahren angefügt, eine obere Kreisabtastung T am oberen Ende des ROI und eine untere Kreisabtastung B am unteren Ende des ROI vorzusehen.
Infolge des Zusammenwirkens von Quelle und Detektor unter der Steuerung des Computers 206 und des Manipulators 208 tritt in jeder der Quellenstellungen längs der Bahn 214 Röntgenstrah­ lungsenergie durch das Gesichtsfeld der Abbildungsvorrich­ tung, wird durch das Objekt 216 geschwächt, und ein Satz von Projektionsdaten entsprechend der auf die Elemente (Pixels) innerhalb des Detektors 212 fallenden abgetasteten Röntgen­ strahlungsenergie wird im Detektor 212 erzeugt. Jeder Satz von Projektionsdaten wird auf ein Datenerfassungssystem (DAS) 217 gegeben, das, wie die vorher beschriebenen Teile der Fig. 2, in einer dem Fachmann bekannten Art die erfaßten Projektionsdaten digitalisieren und speichern kann.
In den erwähnten Patentschriften US 5 257 183 und 5 453 666 wird eine Bildrekonstruktionsverarbeitung 218 durch Radon­ raum-gesteuerte Umwandlungen vorgesehen, wodurch eine Bildre­ konstruktion des Objekts 216 auf einem Display 220 erzeugt wird. Der Erfinder der vorliegenden Erfindung hat einen Weg entwickelt, die Technik der Datenkombination für ROI-Rekon­ struktion in die Bildrekonstruktions-Verarbeitungsvereinfa­ chung von Kudo et al für einen einzigen Kreisabtastungs-Ab­ bilder einzubauen und dadurch ein Konusbündel-Abbildungs­ system zu erzeugen, das nicht nur eine spiralige Abtastbahn aufweisen kann, sondern auch einen kurzen Detektor verwenden kann. Statt der Teilung durch die Funktion M(r,θ) wie bei Kudo et al wird erfindungsgemäß die Normalisierung der rekon­ struierten Objektdichten durch Teilung der Röntgenstrahlungs­ bündel-Überdeckung der Ebene Q(r,θ) zwischen den verschiede­ nen Quellenstellungen erzielt, welche die Ebene ohne jede Überlappung beleuchten. Infolgedessen wird der erfindungsge­ mäße Bildrekonstruktionsvorgang stark beschleunigt infolge eines verringerten Erfordernisses an ausgedehnten Berechnun­ gen, das Erfordernis einer signifikanten Speicherzuordnung für den Normalisierungsschritt 3 wird vermieden und darüber hinaus kann das Abbildungssystem einen kürzeren Detektor verwenden, d. h. einen, der nicht in jeder Quellenstellung eine vollständige Betrachtung des ROI des Objekts erfordert.
Insbesondere ist dieses Konzept der Teilung der Röntgenstrah­ lenbündelüberdeckung in Fig. 3 dargestellt, die eine typische, das zylindrische Objekt 216 und die spiralige Abtastbahn 214 schneidende Integrationsebene Q(r,θ) darstellt, von der angenommen wird, daß sie sich um einen ROI im Objekt 216 auf einem imaginären Zylinder wickelt. Eine Kantendarstellung der Ebene Q ist in Fig. 3 dargestellt. Da eine nichtvertikale Ebene einen Zylinder in Ellipse schneidet, schneidet die Ebene Q(r,θ) das Objekt 216 und die zylindrische spiralige Abtastbahn 214 in zwei Ellipsen, von denen die eine innerhalb der anderen liegt.
Die Schnittlinie der Integrationsebene Q mit dem Objektzylin­ der ist durch die kleinere Ellipse E1 angegeben, und ihre Schnittlinie mit dem Abtastbahnzylinder ist durch die größere Ellipse E2 angegeben. Da die spiralige Bahn 214 auf dem Abtastbahnzylinder liegt, schneidet sie die Ebene Q in Punk­ ten, die auf der Ellipse E2 liegen. Diese Quellenstellungen sind als S1, S2 und S3 in Fig. 3 dargestellt. In gleicher Weise kann leicht gesehen werden, daß der obere Abtastbahnkreis die Ebene in zwei Punkten T1 und T2 schneidet, die auf der Schnittlinie zwischen E2 und dem oberen Rand des interessie­ renden Bereiches des Objekts (abgeschatteter Teil des Objekts 216) liegen, und daß der untere Kreis die Ebene in zwei Punkten B1 und B2 schneidet, die auf der Schnittlinie zwi­ schen E2 und dem unteren Rand des interessierenden Bereichs des Objekts liegen. Andere Integrationsebenen können mehr oder weniger Überschneidungen mit der spiraligen Abtastbahn aufweisen, was von ihrer Orientierung abhängt, und müssen nicht die obere oder untere kreisförmige Abtastbahn schnei­ den.
Wie aus Fig. 3 ersichtlich, sind die Quellenstellungen, welche denjenigen Teil der Integrationsebene Q beleuchten, der in­ nerhalb des ROI (abgeschatteter Bereich 300) liegt, T2, S1, S2, S3 und B2. Eine vollständige Röntgen­ strahlenüberdeckung des interessierenden Bereiches 300 dieses Teils der Integrationsebene kann durch geeignetes Kombinieren der an diesen fünf Quellenstellungen erfaßten Daten, wie in Fig. 3 angedeutet, erreicht werden. Beispielsweise werden bei T2 nur die Konusbündeldaten innerhalb des Winkels benutzt der durch T1T2 und S1T2 eingeschlossen wird, und bei S1 werden nur die Konusbündeldaten innerhalb des Winkels benutzt, der durch T2S1 und S2S1 ein­ eingeschlossen ist. Und so weiter. Fünf Teilebenen P1 bis P5 werden daher durch die Quellenstellungen T2, S1, S2 S3 und B2 definiert, die sich nicht überlappen und zusammen den Teil der Ebene Q vollständig überdecken; der innerhalb des ROI 300 liegt. Auf diese Weise beleuchtet die Gesamtheit der Konusbündeldaten von jeder der beitragenden Quellenstellungen die ganze Ebene Q(r,θ) nur einmal ohne je­ de Überlappung. Weitere Einzelheiten dieses Datenkombina­ tionsverfahrens gehen aus den früheren Konusbündel-Patenten von K. Tam, wie US 5 463 666, hervor.
Da nur spezielle nicht überlappende Beiträge zu den Radonda­ ten aus den Projektionsdaten entwickelt werden, kann die Funktion M(r,θ) für alle Konusbündelbetrachtungen auf Eins gesetzt werden. So werden, wenn die vom Detektor in jeder der Quellenstellungen erfaßten Konusbündel-Projektionsdaten verarbeitet werden, wie als nächstes beschrieben, Beiträge zu jeder den ROI schneidenden Ebene nur einmal erzeugt.
Wie oben in Verbindung mit Fig. 3 beschrieben, sollten die erfaßten Konusbündel-Projektionsdaten auf den geeigneten Winkelbereich eingeschränkt werden, um Datenüberfluß zu vermeiden, und dadurch das Erfordernis der Normalisierungs­ funktion M(r,θ) nach Kudo et al zu vermeiden. Für die erfin­ dungsgemäße Bildrekonstruktion wird dies durch Anwendung eines Maskierungsverfahrens erreicht. Allgemein ist die Maskierung von erfaßten Konusbündel-Projektionsdaten bekannt, siehe beispielsweise die frühere US 5 504 792. Fig. 4 zeigt eine solche Maske 400. Die Maske 400 besteht aus einer oberen Kurve 402 und einer unteren Kurve 404, wobei jede Kurve durch Konusbündelprojektionen der spiraligen Abtastbahnwindung oberhalb bzw. unterhalb der momentanen Quellenstellung auf den Detektor (212 in Fig. 2) gebildet wird. Für einen auf der Rotationsachse gelegenen ebenen Detektor, derart, daß eine die Quelle mit dem Detektornullpunkt verbindende Linie senk­ recht auf der Detektorebene steht, wird die Gleichung für die obere Kurve 402 für die Spiralabtastbahn-Projektion gegeben durch:
wobei x and y die kartesischen Koordinatenachsen des Detek­ tors sind, die y-Achse mit der Drehachse zusammenfällt, a der Radius der Spirale und h der Abstand zwischen benachbarten Spiralwindungen (die Steighöhe) ist. Die untere Kurve 404 ist eine Spiegelung der oberen Kurve 402 am Nullpunkt, d. h.
(x,y) ⇒ (-x,-y),
Wie in Verbindung mit Fig. 2 beschrieben, sind für die ROI-Ab­ bildung Kreisbogenabtastungen in der oberen und unteren Höhe erforderlich. Die obere Kreisabtastung T beginnt beim Winkel (7r+α) vor dem Start der Spiralabtastung, und die untere Kreisabtastung B endet am Winkel (π+α) nach dem Ende der Spiralabtastung, wobei α der Öffnungswinkel des Röntgenstrah­ lungsbündels ist. Die genaue Geometrie der an jeder Quellen­ stellung verwendeten Maske hängt von der Lage der Quelle auf der Abtastbahn ab. Dementsprechend kann man die spiralige Abtastbahn in fünf getrennte Bereiche unterteilen, wie in Fig. 6 dargestellt. Der erste Bereich umfaßt die letzte (π+α)-Drehung des oberen Kreises (im Uhrzeigersinn von B nach A). Der zweite Bereich umfaßt die erste (π+α)-Drehung der Spirale (im Uhrzeigersinn von A nach C). Der dritte Bereich umfaßt den inneren Teil der Spirale, d. h. nach der ersten (π+α)-Drehung und vor der letzten (π+α)-Drehung. Der vierte Bereich umfaßt die letzte (π+α)-Drehung der Spirale (ähnlich wie beim zweiten Bereich). Der fünfte Bereich umfaßt die erste (π+α)-Drehung des unteren Kreises (ähnlich dem ersten Bereich, jedoch am unteren Ende). Die Masken für diese fünf Bereiche werden ausführlich weiter unten beschrieben und sind in den Fig. 7 bis 8 dargestellt. Diese Figuren setzen voraus, daß die Strahlungsquelle sich auf einer Spiralbahn von oben nach unten im Uhrzeigersinn dreht.
  • 1. Für die letzte (n+a)-Drehung des oberen Kreises, siehe Maske 700 in Fig. 7, worin:
    • - die obere Kurve eine horizontale Linie in Höhe des oberen Kreisbogens ist, und
    • - die untere Kurve eine Spiegelung der Gleichung (1) am Nullpunkt ist.
  • 2. Für die erste (π+α)-Drehung der Spirale, siehe Maske 800 der Fig. 8, worin:
    • - die obere Kurve die Schnittlinie von zwei Kurven ist:
      der normalen oberen Spiralmaske, Gleichung (1), und der Konusbündelprojektion des oberen Kreises, proji­ ziert von der Quelle, gegeben durch die Gleichung:
      worin 2b der Abstand zwischen dem oberen und unteren Kreis ist; und
    • - die untere Kurve eine Spiegelung der Gleichung (1) am Nullpunkt ist.
  • 3. Für den inneren Teil der Spirale, siehe Maske 400 der Fig. 4, worin:
    • - die obere Kurve durch Gleichung (1) beschrieben wird, und
    • - die untere Kurve eine Spiegelung der Gleichung (1) am Nullpunkt ist.
  • 4. Für die letzte (π+α)-Drehung der Spirale siehe Maske 800 der Fig. 8, jedoch um 180° gedreht.
  • 5. Für die erste (π+α)-Drehung des unteren Kreises, siehe Maske 700 der Fig. 7, jedoch um 180° gedreht.
Ein erster Schritt der Bildrekonstruktion umfaßt die Begren­ zung des Satzes von Projektionsdaten, der vom Detektor in jeder Quellenstellung erfaßt wurde, mit einer geeigneten Maske, wie einer der Masken der Fig. 4 und 7 bis 8. Ent­ sprechend den Grundgedanken des Maskierens wird angenommen, daß außerhalb der Maske gelegene Daten im Satz den Wert Null haben, während der Wert der Daten innerhalb der Maske unver­ ändert belassen wird. Nach geeigneter Maskierung eines Satzes von Projektionsdaten wird er als maskierter Satz von Projek­ tionsdaten oder einfacher als maskierter Datensatz bezeich­ net. Da die Masken durch Konusbündelprojektion der Spiralwin­ dung oberhalb und der Windung unterhalb der gegenwärtigen Quellenstellung gebildet werden, entspricht der maskierte Datensatz genau dem Winkelbereich, der durch die frühere und die folgende Quellenstellung begrenzt wird, wie es durch das in Fig. 3 dargestellte Prinzip der Datenkombination erfordert wird. Der Computer 206 der Fig. 2 kann die Masken "fliegend" während der Bildrekonstruktion berechnen, oder sie könnten vorberechnet und im Systemspeicher gespeichert sein.
Als nächstes wird das Rampenfilterverfahren von Feldkamp auf die maskierten Sätze von Projektionsdaten angewendet, wodurch die Schritte 1 bis 5 des bekannten sechsstufigen Verfahrens zu einem einzigen Rampenfilterschritt vereinfacht werden, wie in Fig. 9 dargestellt. Insbesondere wird jeder Satz von mas­ kierten Daten längs einer Anzahl von darin geformten paral­ len Linien (t) rampengefiltert, wobei diese Linien parallel zu und in Richtung einer Parallelprojektion in den Datensatz einer Linie verlaufen, die tangential zur Abtastbahn in der Quellenstellung ist, welche diesen Datensatz erfaßt hat, sowie in der Richtung der nächsten Quellenstellung. Das Rampenfiltern jedes maskierten Datensatzes längs Linien (t) erzeugt eine entsprechende Anzahl von gefilterten Datensät­ zen, wobei die Daten an jedem Punkt längs jeder Linie einer Summierung der Radondaten an diesem Punkt entsprechen, wie es bei der Entwicklung durch die Schritte 1 bis 5 des sechs­ schrittigen Verfahrens nach Kudo et al der Fall gewesen wäre. Dementsprechend ist der einzige verbleibende Schritt zum Rekonstruieren des Bildes eine 3D-Rückprojektion entsprechend dem Schritt 6 von Kudo et al. Dieser 3D-Rückprojektions­ schritt kann auch vom Computer 206 durchgeführt werden, wobei die erhaltene Bildrekonstruktion am Display 220 erscheint.
Obwohl der einzige Schritt des Rampenfilterns nach Feldkamp viel schneller ist als die Anwendung der bekannten Schritte 1-5, besteht ein Verlust oder ist ein Preis zu zahlen, d. h. die erzeugten Radondaten sind etwas weniger genau als es für eine genaue Bildrekonstruktion erforderlich wäre. Dies beruht auf der Tatsache, daß beim Berechnen der Linienintegral-Deri­ vatdaten im sechschrittigen Verfahren von Kudo et al keine Maskierung der Projektionsdaten stattfindet. Gleichermaßen findet bei der Abänderung des Verfahrens nach Kudo et al. die in der erwähnten Patentanmeldung USSN 09/052 281 beschrieben ist, keine Maskierung der Projektionsdaten statt, nur im Ausmaß der Liniensegmente L, für welche die Linienintegral- Derivate berechnet werden. Das heißt z. B., wie in USSN 09/052 281 beschrieben, Linienintegrale für die benachbarten Linien­ segmente L1 und L2 werden nicht maskiert, und tat­ sächlich werden die Pixelwerte in Detektorzeilen oberhalb der Detektorzeilen, welche die Endpunkte der Liniensegmente L definieren, verwendet, um diese Linienintegrale genau zu bestimmen (in ähnlicher Weise wie in den Fig. 5 und 6 in US 5 748 697 gezeigt). Ein Maskieren findet nur statt auf den Liniensegmenten L, nachdem die Linienintegrale für die Li­ niensegmente L1 und L2 abgezogen worden sind, um die Linienintegral-Derivate für die Liniensegmente L zu berech­ nen. Es ist jedoch eine notwendige Konsequenz des Rampenfil­ terns der maskierten Projektionsdaten gemäß dem erfindungsge­ mäßen Bildrekonstruktionsverfahren, daß die Ausdehnung der Liniensegmente L1 und L2 auch durch ihre Überschnei­ dung mit der Maske begrenzt wird. Eine Folge dieser Tatsache ist eine etwas weniger genaue Rekonstruktion, aber als Aus­ gleich ergibt sich eine verbesserte Geschwindigkeit der Bildrekonstruktion.
Die Erfindung beschreibt ein Verfahren zur Verbesserung der Genauigkeit der Bildrekonstruktion ohne wesentliche Vergröße­ rung der erforderlichen Menge von Bildrekonstruktions-Signal­ verarbeitung.
Insbesondere durch Vergleich von Fig. 4 und Fig. 5 ist ersichtlich, daß die Differenz zwischen den entsprechenden Linienintegralen in den beiden Figuren nur an der oberen und unteren Maskengrenze auftritt, wobei die Linienintegrale in den übrigen Liniensegmenten identisch sind. So kann das wirksame Rampenfilterverfahren, das in der erwähnten Patent­ anmeldung 09/106 537 beschrieben ist, angewendet werden, um eine erste Schätzung oder Annäherung des Radon-Derivats zu berechnen, wobei implizit die Integrale an Liniensegmenten innerhalb der Maske verwendet werden, wie in Fig. 4 gezeigt. Als nächstes werden Korrekturdaten erzeugt, indem beispiels­ weise das in der Patentanmeldung USSN 09/123 574 beschriebene Verfahren angewendet wird, um die Differenz zwischen den Linienintegralen an den Maskengrenzen zu berechnen. Die Korrekturdaten werden sodann mit der ersten Schätzung kombi­ niert, wodurch eine genauere Bildrekonstruktion erzeugt wird.
Die Bestimmung der Korrekturdaten entsprechend dem Verfahren nach der genannten US- Patentanmeldung USSN 09/123 574 wird nachfolgend beschrieben. Die Wirkung der harten Maskierung der Fig. 4 auf die Berechnung der Linienintegral-Derivate für die Linien L entspricht der Gleichung:
Die Wirkung der weichen Maskierung der Fig. 5 auf die Berech­ nung der Linienintegral-Derivate für die Linien L entspricht der Gleichung:
Unter gemeinsamer Beziehung auf die Fig. 4 und 10 (wobei Fig. 10 der Fig. 5 entspricht, jedoch mit zusätzlichen Linien­ segmenten ΔL, die an der Maske 1000 gezeigt sind und für die Anzeige der Differenz in der Länge der Liniensegmente brauch­ bar ist, die sich bei harter im Vergleich mit weicher Maskie­ rung ergeben) kann die Gleichung 1 folgendermaßen umgeschrie­ ben werden:
Durch geeignete Zusammenfassung von Ausdrücken kann die Glei­ chung 3 umgeschrieben werden:
Substituieren der Gleichung 2 in Gleichung 4 ergibt:
Durch Umordnung der Ausdrücke ist ersichtlich, daß die genau­ en Radon-Derivatdaten, die sich aus weicher Maskierung erge­ ben, durch negatives Kombinieren des Ergebnisses der harten Maskierung mit den Korrekturdaten (CR) verwirklicht werden können, wie unten gezeigt:
Es wird ferner bemerkt, daß die Korrekturdaten der arithme­ thischen Differenz zwischen weicher und harter Maskierung entsprechen.
Da die Korrekturdaten nur an den zwei Maskengrenzkurven statt über den ganzen Detektor berechnen werden müssen, läßt sich ein Verringerungsverhältnis an Berechnung der Korrekturdaten von etwa 2/Nz erzielen, wobei Nz die Anzahl von Detektorzei­ len ist.
Da ferner die Korrekturdaten nur für Konusbündel-Projektions­ daten berechnet werden, die durch Detektorpixels erfaßt werden, welche die Maskengrenzen überschneiden, wird es praktisch möglich, eine Pixelausbreitungs-Funktionstabelle zu verwenden, um die Berechnung zu beschleunigen. Zum Erzeugen der Pixelausbreitungs-Funktionstabelle für jedes Detektor­ pixel (i, j), das von den Maskengrenzen überschnitten wird, ordnet man einen Einheitswert dem Pixel und Null überall sonst zu. Als nächstes führt man die in Fig. 5 angegebenen Operationen durch. Die erhaltenen Werte werden sodann rück­ projiziert (ausgebreitet bzw. spread-out) über einen "virtu­ ellen Detektor"2D-Raum, der eine Höhe aufweist, die groß genug ist, um das ganze Betrachtungsfeld des Objekts zu überdecken. Die sich aus diesem Verfahren ergebende 2D-Infor­ mation bildet eine normalisierte Pixelausbreitungs-Funktions­ tabelle für das Grenzpixel (i, j). Es ist zu bemerken, daß die Pixelausbreitungs-Funktionstabelle den virtuellen Detektor und nicht den tatsächlichen (kurzen) Detektor überdeckt, da die Rückprojektion von jedem Liniensegment auf die ganze Ebene Q(r,θ) ausgedehnt werden sollte, wie von der Mathematik der Radon-Inversion gefordert. Bei Durchführung wird die additive Kombination jedes Grenzpixels (i, j) mit den 2D-Kor­ rekturdaten einfach und schnell bestimmt, indem lediglich der Intensitätswert der Konusbündel-Projektionsdaten bei jedem Grenzpixel (i, j) mit den Werten ihrer Pixelausbreitungs-Funk­ tionstabelle multipliziert wird und additiv die für jedes Grenzpixel (i, j) erhaltenen Ergebnisse in einem gemeinsamen 2D-Virtuelldetektorraum kombiniert werden. Es ist zu bemer­ ken, daß in üblicher Weise der für die Daten an jedem Grenz­ pixel (i, j) verwendete Intensitätswert vorzugsweise ein Bruchteil des tatsächlichen Intensitätswerts des Pixels ist, wobei dieser Bruchteil dem Prozentsatz der innerhalb der Maske gelegenen Pixelfläche entspricht.
Da etwa Nx Pixels auf der Maskengrenze liegen, und die Pixel­ ausbreitungs-Funktionstabelle für jedes Pixel Nx auf Ny Eingänge hat (wobei Nx auf Ny die Abmessungen des virtuellen Detektors sind), ist die Größe der ganzen Pixelausbreitungs- Funktionstabelle Nx mal Nx mal Ny. So ist die Tabelle ziem­ lich groß. Es werden in der erwähnten Patentanmeldung USSN 09/123 574 verschiedene Verfahren zum Reduzieren der Tabel­ lengröße beschrieben. Beispielsweise kann die gleiche Tabelle für die Maskengrenz-Pixeldaten verwedet werden, die von allen Quellenstellungen im Inneren der Spiralbahn erfaßt werden (da diese Maskengrenzen alle die gleiche Form besitzen). Da ferner die untere Maskengrenze die Spiegelung der oberen Maskengrenze am Nullpunkt ist, d. h. (x, y) ⇒ (-x, -y), muß eine Pixelausbreituns-Funktionstabelle nur für eine dieser Grenzen berechnet werden, wodurch ein weiterer Reduzierungsfaktor von 2 in der Tabellengröße erzielt wird.
Ferner zeigt die Untersuchung der Masken für Quellenstellun­ gen nahe den Kreisabtastungen für die ROI-Abbildung, wie in den Fig. 7 und 8 gezeigt, wie weitere Reduzierungen der Größe der Pixelausbreitungs-Funktionstabelle möglich sind. Für solche Pixels in Teilen 802 und 804 der Maske 800 kann die gleiche Pixelausbreitungs-Funktionstabelle verwendet werden, die für die obere und untere Grenze der Maske 500 verwendet wurde. Es ist ersichtlich, daß alle Pixels auf der horizontalen Linie 702 in Fig. 7 die gleiche Pixelausbrei­ tungs-Funktionstabelle haben, und so sind nur zusätzliche Nx mal Ny Eingänge für die Linie 702 erforderlich. Für diese Pixels, die auf der unteren Grenze 704 in Fig. 7 liegen (wel­ che die Projektion des unmittelbar benachbarten Spiralabtast­ bahn-Segments von den Quellenstellungen auf der Kreisabtast­ bahn ist), und auf der oberen Grenze 806 in Fig. 8 (welche die Projektion der Kreisabtastbahn von den Quellenstellungen auf dem unmittelbar benachbarten Spiralabtastbahn-Segment ist) können die Korrekturdaten berechnet werden, indem direkt das in Fig. 5 dargestellte Verfahren angewendet wird. Bei einer normalen Spiralabtastung bedingen die meisten Blickwinkel die in Fig. 4 dargestellte normale Spiralmaske, und die Anzahl von die Grenzen 704 und 806 enthaltenden Blickwinkeln sind im Vergleich klein. So ist auch die Zeit klein, die zum Berech­ nen der auf die Grenzen 704 und 806 bezüglichen Korrekturen gebraucht wird.
Die Kombination der 2D-Korrekturdaten mit den ersten 2D- Schätzungsdaten kann vor dem gewichteten 3D-Rückprojektions­ schritt durchgeführt werden (d. h. durch Kombinieren beider Sätze der 2D-Daten in einem gemeinsamen 2D-Raum, wie dem in Fig. 1B für die ersten Schätzungsdaten gezeigten Raum 7 und demjenigen Teil des Raums 7, der sich mit dem virtuellen Detektorraum für die Korrekturdaten überlappt), oder die ersten Schätzungsdaten und die Korrekturdaten können einzeln der gewichteten 3D-Rückprojektion von ihren eigenen 2D-Räumen in einen gemeinsamen 3D-Raum, wie den Raum 12 gemäß Fig. 1B, unterworfen werden. Es ist zu bemerken, daß in jedem Fall die Korrekturdaten in einen 2D-Raum rückprojiziert werden müssen, welcher der Größe des virtuellen Detektors entspricht, d. h. einen, der groß genug ist, um ein vollständiges Sichtfeld des ROI im Objekt bei einer einzigen Quellenstellung zu erfassen.
Durch die Erfindung wird ein Verfahren geschaffen, um eine beträchtliche Reduzierung der Menge an 2D-Korrekturdaten zu erzielen, die für die Bildrekonstruktion erforderlich sind, ohne die Genauigkeit des rekonstruierten Bildes wesentlich zu beeinträchtigen. Daher erzielt die Erfindung eine wesentliche Reduzierung der Menge der für die Bildrekonstruktion erfor­ derlichen Signalverarbeitung bei gleichzeitiger Steigerung der Geschwindigkeit der Bildrekonstruktion.
Insbesondere wird daran erinnert, daß in Verbindung mit der obigen Gleichung (6) die Korrekturdaten für jedes aus einer großen Anzahl von Liniensegmenten L(r,θ) berechnet werden, und sodann die für jedes der Liniensegmente berechneten Korrekturdaten unter ihrem Winkel θ in einen 2D-Raum mit einer dem virtuellen Detektor entsprechenden Größe rückpro­ jiziert werden. Die Erfinder haben erkannt, daß für jeden Winkel e der Umfang der Korrekturdaten und daher der Umfang des Rückprojektionsergebnisses p(r,θ) vom Winkel θ abhängt, den L mit der Maskengrenze einschließt. Wie aus einer Unter­ suchung der Fig. 10 hervorgeht, ist der Winkel θ umso klei­ ner, den L(r,θ) mit der Maskengrenze einschließt, je länger das Liniensegment ΔL ist, das sich über die Maskengrenze erstreckt, und je größer der Wert der unter Verwendung dieses ΔL berechneten Korrekturdaten ist. Umgekehrt, je größer der Winkel θ ist, den L(r,θ) mit der Maskengrenze einschließt (d. h. wenn er 90° annähert), desto kürzer ist das Linienseg­ ment ΔL, das sich über die Maskengrenze erstreckt, und desto kleiner ist der Wert der unter Verwendung dieses ΔL berech­ neten Korrekturdaten.
Je kleiner oder größer daher der Winkel θ ist, den L(r,θ) mit der Maskengrenze einschließt, desto größer oder kleiner ist der Wert der 2D-Korrekturdaten. Dies ist in Fig. 11 graphisch dargestellt, wobei 1100 eine beispielhafte Maskengrenze angibt, 1102 eine beispielhafte ΔL(r,θ)-Wellenform des "Wertes der Korrekturdaten" angibt, wobei die Winkel θ, die L(r,θ) mit der Maskengrenze einschließen, verhältnismäßig klein sind (wie aus dem angegebenen Winkel hervorgeht, wel­ chen die Rückprojektions-Richtungspfeile 1104 mit der Maske 1100 einschließen), und 1106 eine beispielhafte ΔL(r,θ)-Wel­ lenform des "Wertes der Korrekturdaten" angibt, wobei die Winkel θ, die L(r,θ) mit der Maskengrenze einschließt, ver­ hältnismäßig groß sind, d. h. nahe 90° (wie aus dem angezeig­ ten Winkel hervorgeht, den die Rückprojektions-Richtungspfei­ le 1108 mit der Maske 1100 einschließt).
Es ist ersichtlich, daß die Größe von ΔL(r,θ) in denjenigen Richtungen (θ) unter oder nahe einem rechten Winkel zur Maskengrenze und in den Richtungen parallel zur Maskengrenze niedrig ist. Bei einem typischen Konusbündel-CT-Abbildungs­ system stehen die Maskengrenzen gewöhnlich unter einem klei­ nen Winkel zur x-Achse für eine typische Spiralsteigung. Infolgedessen ist die Größe von ΔL(r,θ) hoch für θ unter kleinen Winkeln zur x-Achse und dementsprechend zu den Mas­ kengrenzen (wie durch die ΔL-Wellenform 1102 gezeigt) und niedrig für θ unter oder nahe einem rechten Winkel zur Mas­ kengrenze (wie durch die ΔL-Wellenform 1106 gezeigt).
Daher stammen die dominierenden Beiträge zur den 2D-Korrek­ turdaten von L = Werten bei einem kleinen Winkel θ zur x-Ach­ se (wie durch die ΔL-Wellenform 1102 gezeigt). Wie jedoch aus einer Untersuchung der Fig. 11 hervorgeht, wird der Wert des Rückprojektionsergebnisses p(r,θ) nahe dem oberen und unteren Rand des 2D-Korrekturdatenraums (x, y) aus der Rück­ projektion bei kleinen Winkeln θ zur y-Achse gebildet. Da die Werte für die ΔL-Wellenform 1106 bei diesen Winkeln eine verhältnismäßig kleine Größe haben, hat sie auch das Rückpro­ jektionsergebnis p(r,θ), d. h. die 2D-Korrekturdaten. So sind die Werte nahe dem oberen und unteren Rand des 2D-Korrektur­ datenraums (x, y) in ihrer Größe sehr niedrig. Dementsprechend fällt die Größe der 2D-Korrekturdaten ziemlich scharf in y-Richtung weg vom maskierten Bereich ab. Die Schärfe des Abfalls im Beitrag zu den 2D-Korrekturdaten ist in Fig. 12 dargestellt, die eine Aufzeichnung der Funktion tgθ ist und eine Annäherung der Änderungen von ΔL(r,0) als Funktion des Winkels θ darstellt, wenn die Maskengrenze als horizontale Linie angenommen wird.
Aufgrund des Obigen ergeben sich zwei Folgen:
  • 1. Die 2D-Korrekturdaten können in einer sehr guten Annähe­ rung erzeugt werden, indem nur diese p(r,θ) verwendet werden, die an Überschneidungen mit der x-Achse unter einem kleinen Winkel liegen, und
  • 2. beim Durchführen des 3D-Rückprojektionsschrittes kann anstatt des Erzeugens und Rückprojizierens der 2D-Korrek­ turdaten von einem 2D-Raum entsprechend der Größe des virtuellen Detektors als Konsequenz der obigen Folge (1) der 2D-Raum außerhalb oder gerade etwas jenseits der Größe des tatsächlichen Detektors beschnitten werden, welcher den maskierten Bereich enthält, ohne irgendeinen wesentlichen Verlust an 2D-Korrekturdaten, und dadurch ohne jede bedeutende Wirkung auf die Genauigkeit der Bildrekonstruktion.
So kann entsprechend den Grundgedanken der Erfindung die für das Erzeugen und sodann 3D-Rückprojizieren der 2D-Korrektur­ daten erforderliche Signalverarbeitung vom Erzeugen und sodann Verarbeiten von Daten, welche den ganzen virtuellen Detektor überdecken, auf lediglich die Daten reduziert wer­ den, welche den tatsächlichen Detektor überdecken, plus einem Streifen von Daten am oberen und unteren Rand des tatsächlichen Detektors. Die Größe des oberen und unteren Streifens ist einstellbar in Abhängigkeit vom gewünschten Genauigkeitsgrad der endgültigen Bildrekonstruktion. Es wird angenommen, daß mit der vorliegenden Erfindung beispielsweise durch Reduzieren der vertikalen Höhe eines virtuellen Detek­ tors von 1000 Pixel mal 1000 Pixel von 1000 Pixels auf 600 Pixels eine Verringerung der Signalverarbeitung um 40% und infolgedessen der Bildrekonstruktionsgeschwindigkeit erzielt werden kann, wobei nur ein 5%iger Abfall des Grades der Bildrekonstruktionsgenauigkeit auftritt.
Bei einer bevorzugten Ausführungsform der Erfindung gibt bei Betrieb der Abbildungsvorrichtung der Benutzer dem Computer 206 (unter Verwendung einer nicht gezeigten Tastatur) den gewünschten Genauigkeitsgrad des rekonstruierten Bildes (oder entsprechend eine gewünschte Rekonstruktionsgeschwindigkeit) ein, und darauf basierend bestimmt der Computer während des Bildrekonstruktionsverfahrens die entsprechende Höhe des virtuellen Detektors, der für die 2D-Rückprojektion zu ver­ wenden ist, um die 2D-Korrekturdaten zu erzeugen. Wenn daher der Benutzer den höchsten Genauigkeitsgrad wählt, setzt der Computer 206 eine Höhe für den virtuellen Detektor fest, die zur Überdeckung des ganzen ROI ausreicht, wenn der Benutzer den niedrigsten Genauigkeitsgrad wählt, setzt der Computer 206 eine Höhe für den virtuellen Detektor fest, die der Höhe des tatsächlichen Detektors entspricht, und für mittlere Genauigkeitsgrade werden entsprechend mittlere Höhen für den virtuellen Detektor gewählt.
Im Einklang mit der obigen Folge (1) bei weiterer Betrachtung der Fig. 11 ist ersichtlich, daß statt Einstellung der Höhe des virtuellen Detektors als Ausgleich zwischen aufwendiger Signalverarbeitung und einem vom Benutzer bestimmten gewün­ schten Grad an Rekonstruktionsgenauigkeit oder -geschwindig­ keit das gleiche Ergebnis auch erzielt werden kann, indem die Berechnung der Korrekturdaten auf einen vorbestimmten be­ grenzten Bereich von Winkeln (θ) begrenzt wird, der sowohl der Berechnung der ΔL(r,θ)-Daten sowie deren 2D-Rückprojek­ tion in den virtuellen Detektorraum zugeordnet ist. Dies führt zu beträchtlichen Einsparungen der Signalverarbeitung zum Berechnen der ΔL(r,θ)-Korrekturdaten sowie zu beträcht­ lichen Einsparungen in der Signalverarbeitung, die für die 2D- und sodann 3D-Rückprojektion dieser Korrekturdaten erfor­ derlich ist. Insbesondere kann man durch Begrenzung des Winkelbereichs zur Berechnung der ΔL(r,θ)-Daten auf einen vom Benutzer bestimmten Bereich, z. B. 0-20 Grad mit der x-Achse (dem ungefähren Winkelbereich, der in Wellenform 1102 in Fig. 11 dargestellt ist), und sodann Begrenzen des 2D-Rück­ projektionswinkels dieser begrenzten Datenmenge auf den gleichen vom Benutzer bestimmten Winkelbereich eine beträcht­ liche Einsparung an Signalverarbeitung (und eine entsprechen­ de Steigerung der Geschwindigkeit der Bildrekonstruktion) erzielen, während man noch eine wesentliche Menge an 2D-Kor­ rekturdaten erhält und daher einen verhältnismäßig unbedeu­ tenden Verlust der Rekonstruktionsgenauigkeit erleidet. Es wird bemerkt, daß als Folge der Verwendung eines begrenzten Winkelbereiches die 2D-Korrekturdaten im 2D-Detektorraum gerade außerhalb der Maskengrenzen konzentriert wird. Dement­ sprechend begrenzt, d. h. reduziert, der Computer 206 während der 3D-Rückprojektion die Größe des virtuellen Detektors zur Größe des tatsächlichen Detektors hin um einen Betrag, der vergleichbar ist mit dem erwarteten Grad der Konzentration der 2D-Korrekturdaten. Als Folge verwendet während des Bild­ rekonstruktionsvorgangs der Computer 206 vorzugsweise eine Kombination beider obiger Verfahren, um die Signalverarbei­ tung zu vereinfachen und zu beschleunigen, während noch ein sehr hoher gewünschter Grad der Bildrekonstruktionsgenauig­ keit erzielt wird.
So ist hier ein neues Verfahren und eine neue Vorrichtung zum Steuern der Genauigkeit der Bildrekonstruktion in einer Konusbündel-CT-Abbildungsvorrichtung mit Verwendung einer vereinfachten 3D-Rückprojektions-Bildrekonstruktion gezeigt und beschrieben worden. Statt der Angabe eines begrenzten Winkelbereichs kann der Benutzer, wie bei der erstgenannten bevorzugten Ausführungsform einen gewünschten Genauigkeits­ grad angeben, und sodann stellt der Computer 206 die Bildre­ konstruktionsverarbeitung durch Verwendung eines vorbestimm­ ten begrenzten Winkelbereichs und/oder Größen des virtuellen Detektors ein, die so angepaßt sind, daß sie den gewünschten Grad der Bildrekonstruktionsgenauigkeit erzielen. Ferner kann der Grundgedanke der Erfindung, wie die adaptive Begrenzung des Bereichs von Winkeln θ, bezogen auf die Erzeugung und sodann 2D-Rückprojektion der Korrekturdaten ganz oder teil­ weise in die Erzeugung der "Pixelausbreitungs-Funktionstabel­ le" derart eingebaut werden, daß beispielsweise Pixelausbrei­ tungs-Funktionstabellen, welche unterschiedliche Grade des Ausgleichs zwischen Bildrekonstruktionsgeschwindigkeit und -genauigkeit darstellen, vorberechnet und gespeichert werden für die Verwendung während des Betriebs des Abbildungs­ systems.

Claims (34)

1. Verfahren zum dreidimensionalen (3D) computerisierten tomographischen (CT) Abbilden eines interessierenden Bereiches (ROI) in einem Objekt, gekennzeichnet durch:
Erfassen einer Anzahl von Sätzen von 2D-Konusbündel­ projektionsdaten durch Bestrahlung des Objekts mit Energie aus einer Konusbündelquelle, die gegen einen 2D-Detektor bei einer entsprechenden Anzahl von Abtast­ bahn-Quellenstellungen, die um das Objekt angeordnet sind, gerichtet wird;
Anwenden einer Maske auf jeden Satz der 2D-Konusbün­ del-Projektionsdaten zur Bildung einer entsprechenden Anzahl von maskierten 2D-Datensätzen;
Verarbeiten der 2D-Konusbündel-Projektionsdaten in­ nerhalb der Maskengrenzen jedes maskierten 2D-Daten­ satzes, um eine entsprechende Anzahl von verarbeiteten 2D-Datensätzen zu erzeugen, wobei jeder verarbeitete 2D-Datensatz einer Berechnung einer ersten Schätzung von Radonderivat-Daten entspricht, die für einen gegebenen Satz der 2D-Konusbündel-Projektionsdaten bestimmt sind;
adaptives Erzeugen einer vorbestimmten begrenzten Menge von 2D-Korrekturdaten für jede der ersten Schät­ zungen der Radonderivat-Daten; und
Kombinieren jedes verarbeiteten 2D-Datensatzes und der dafür adaptiv entwickelten 2D-Korrekturdaten in einer gewichteten 3D-Rückprojektionsweise in einen gemeinsamen 3D-Raum und dadurch Rekonstruieren in dem 3D-Raum eines 3D-Bildes des ROI im Objekt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Verarbeiten der 2D-Konusbündel-Projektionsdaten innerhalb der Maskengrenzen eine Feldkamp-Rampenfilte­ rung der Daten längs einer Anzahl von darin gebildeten parallelen Linien umfaßt.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeich­ net, daß die geeignete Anpassung der vorbestimmten begrenzten Menge von 2D-Korrekturdaten, die erzeugt werden, auf einem gewünschten Genauigkeitsgrad der Bildrekonstruktion oder einer gewünschten Bildrekon­ struktionsgeschwindigkeit basiert.
4. Verfahren nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, daß die Erzeugung der 2D-Korrek­ turdaten eine adaptive Verarbeitung von Teilen des gegebenen Satzes von 2D-Konusbündel-Projektionsdaten enthält, die Grenzen der Maske in einem entsprechenden der maskierten 2D-Datensätze liegen.
5. Verfahren nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, daß der Verarbeitungsschritt dem Bestimmen von Linienintegralderivaten für die 2D-Konus­ bündel Projektionsdaten in den maskierten 2D-Datensätzen entspricht, die längs einer Anzahl von Liniensegmenten L(r,θ) liegen, deren Endpunkte durch die Maske in jedem der maskierten 2D-Datensätze festgelegt sind.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Erzeugung der 2D-Korrekturdaten die Berechnung von ΔL(r,θ)-Derivatdaten umfaßt, welche der Differenz zwischen den für Paare von Liniensegmenten ΔL(r,θ) berechneten Linienintegralen entsprechen, die nahe der oberen und unteren Grenze jeder Maske liegen, wobei die Paare von Liniensegmenten ΔL(r,θ) aus einer gleichen bzw. entgegengesetzen orthogonalen Verschiebung der Liniensegmente L(r,θ) resultieren und sich außerhalb bzw. innerhalb der oberen und unteren Grenze der Maske erstrecken.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die Erzeugung der 2D-Korrekturdaten die Rückprojektion der ΔL(r,θ)-Derivatdaten in einen 2D-Raum längs einer entsprechenden Rückprojektionsrichtung (θ) umfaßt.
8. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die Erzeugung der 2D-Korrekturdaten die Verarbeitung eines geeignet begrenzten Bereichs von Winkeln (θ) für die berechneten ΔL(r,θ)-Derivatdaten umfaßt, wobei die geeignete Anpassung dieses Bereiches auf dem gewünschten Genauigkeitsgrad der Bildrekonstruktion oder auf einer gewünschten Bildrekonstruktionsgeschwindigkeit beruht.
9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Rückprojektion der ΔL(r,θ)-Derivatdaten längs eines geeignet begrenzten Bereiches von Rückprojektionsrich­ tungen (θ) erfolgt, wobei die geeignete Anpassung des begrenzten Bereiches auf einem gewünschten Genauigkeits­ grad der Bildrekonstruktion oder einer gewünschten Bildrekonstruktionsgeschwindigkeit beruht.
10. Verfahren nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, daß die Erzeugung der 2D-Korrekturdaten das Rückprojizieren der ΔL(r,θ)-Derivatdaten in einen 2D-Raum mit einer Größe umfaßt, die geeignet bestimmt wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die geeignete Anpassung der Größenbestimmung während der Rückprojektion der ΔL(r,θ)-Derivatdaten auf einem gewünschten Genauigkeitsgrad der Bildrekonstruktion oder einer gewünschten Bildrekonstruktionsgeschwindigkeit beruht.
12. Verfahren nach einem der Ansprüche 4 bis 11, dadurch gekennzeichnet, daß die Erzeugung der 2D-Korrekturdaten das Multiplizieren von Teilen der 2D-Konusbündel-Projek­ tionsdaten umfaßt, die die obere und untere Grenze der Maske schneiden; mit einer Pixelausbreitungs-Funktions­ tabelle, die für diese Teile der 2D-Konusbündel-Projek­ tionsdaten geeignet vorbestimmt worden ist.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, daß die geeignete Anpassung der Pixelausbreitungs-Funktions­ tabelle auf einem gewünschten Genauigkeitsgrad der Bildrekonstruktion oder einer gewünschten Bildrekon­ struktionsgeschwindigkeit beruht.
14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeich­ net, daß die Pixelausbreitungs-Funktionstabelle geeignet vorbestimmt wird, indem die Linienintegralderivate für nur einen begrenzten Winkelbereich (8) für Liniensegmen­ te ΔL(r,θ) bestimmt wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß die Pixelausbreitungs-Funktionstabelle durch 2D-Rückpro­ jektion der bestimmten Linienintegral-Derivate längs nur eines begrenzten Winkelbereichs (θ) von Rückprojektions­ richtungen geeignet vorbestimmt wird.
16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß die Pixelausbreitungs-Funktionstabelle durch 2D-Rückpro­ jektion der bestimmten Linienintegralderivate in einen 2D-Raum mit einer geeignet bestimmten Größe geeignet vorbestimmt wird.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß die geeignete Anpassung der Größe des 2D-Raums auf einem gewünschten Genauigkeitsgrad der Bildrekonstruktion oder einer gewünschten Bildrekonstruktionsgeschwindigkeit beruht.
18. Vorrichtung für die dreidimensionale (3D) computerisier­ te tomographische (CT) Abbildung eines interessierenden Bereichs (ROI) in einem Objekt, gekennzeichnet durch:
eine Konusbündelquelle zum Anwenden von Strahlungs­ energie auf wenigstens den ROI des Objekts;
einen 2D-Flächendetektor zum Erfassen von Strah­ lungsenergie;
eine Einrichtung zum Festlegen eines Quellenabtast­ weges als von der Quelle durchlaufene Abtastbahn;
einen Manipulator, der die Konusbündelquelle, die bezüglich eines Flächendetektors festliegt, wobei sowohl Quelle als auch Detektor bezüglich des Objekts beweglich angeordnet sind, veranlaßt, um den ROI im Objekt herum an einer Anzahl von Quellenstellungen in einer Richtung längs der Abtastbahn abzutasten, um den Flächendetektor zu veranlassen, einen Satz von 2D-Konusbündel-Projek­ tionsdaten in jeder der Quellenstellungen zu erfassen;
eine Maskiereinrichtung zum Anbringen einer Maske an jedem Satz der 2D-Projektionsdaten, um maskierte Daten­ sätze zu bilden;
eine Schätzungseinrichtung zum Verarbeiten der 2D- Konusbündel-Projektionsdaten innerhalb der Maskengrenze jedes maskierten 2D-Datensatzes längs einer Anzahl von darin gebildeten parallelen Linien, um eine entsprechen­ de Anzahl von geschätzten 2D-Datensätzen zu erzeugen, wobei jeder geschätzte 2D-Datensatz einer Berechnung einer ersten Schätzung von Radonderivat-Daten ent­ spricht, die für einen gegebenen Satz der 2D-Konusbün­ del-Projektionsdaten bestimmt sind;
eine adaptive Prozessoreinrichtung zur adaptiven Er­ zeugung einer vorbestimmten begrenzten Menge von 2D-Kor­ rekturdaten für jede der ersten Schätzungen der Radon­ derivat-Daten; und
eine 3D-Rückprojektionseinrichtung zum Kombinieren jedes geschätzten 2D-Datensatzes und der dafür adaptiv berechneten 2D-Korrekturdaten in einer gewichteten 3D-Rückprojektionsweise in einen gemeinsamen 3D-Raum und dadurch Rekonstruieren in dem 3D-Raum ein 3D-Bild des ROI im Objekt.
19. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet, daß die Schätzeinrichtung einen Rampenfilterprozessor zum Rampenfiltern der 2D-Konusbündel-Projektionsdaten innerhalb der Maskengrenzen aller maskierten 2D-Daten längs einer Anzahl von darin geformten parallelen Linien umfaßt.
20. Vorrichtung nach Anspruch 18 oder 19, dadurch gekenn­ zeichnet, daß der adaptive Prozessor die vorbestimmte begrenzte Menge von 2D-Korrekturdaten aufgrund eines gewünschten Genauigkeitsgrades der Bildrekonstruktion oder einer gewünschten Bildrekonstruktionsgeschwindig­ keit erzeugt.
21. Vorrichtung nach einem der Ansprüche 18 bis 20, dadurch gekennzeichnet, daß der adaptive Prozessor die vorbe­ stimmte begrenzte Menge von 2D-Korrekturdaten durch Verarbeitung von Teilen des gegebenen Satzes von 2D-Ko­ nusbündel-Projektionsdaten erzeugt, die nahe den Grenzen der Maske in einem der maskierten 2D-Datensätze liegen.
22. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, daß die Schätzeinrichtung Linienintegralderviate für die 2D-Konusbündel-Projektionsdaten in jedem der maskierten 2D-Datensätze bestimmt, die längs einer Anzahl von Liniensegmenten L(r,θ) liegen, wobei die Endpunkte jedes Liniensegments durch die Maske in jedem der maskierten 2D-Datensätze festgelegt sind.
23. Vorrichtung nach Anspruch 22, dadurch gekennzeichnet, daß der adaptive Prozessor ΔL(r,θ)-Derivatdaten als die Korrekturdaten berechnet, wobei die Derivatdaten der Differenz zwischen den Linienintegralen entsprechen, die für Paare von Liniensegmenten ΔL(r,θ) berechnet sind, welche nahe der oberen und unteren Grenze jeder Maske liegen, wobei die Paare von Liniensegmenten ΔL(r,θ) aus einer gleichen bzw. entgegengesetzten orthogonalen Verschiebung der Liniensegmente L(r,θ) sich ergeben und sich außerhalb bzw. innerhalb der oberen und unteren Grenze der Maske erstrecken.
24. Vorrichtung nach Anspruch 23, dadurch gekennzeichnet, daß der adaptive Prozessor die ΔL(r,θ)-Derivatdaten in einen 2D-Raum längs einer entsprechenden Rückprojek­ tionsrichtung (θ) rückprojiziert.
25. Vorrichtung nach Anspruch 23 oder 24, dadurch gekenn­ zeichnet, daß der adaptive Prozessor einen geeignet begrenzten Bereich an Winkeln (θ) für die berechneten ΔL(r,θ)-Derivatdaten verarbeitet, wobei die geeignete Anpassung dieses Bereichs auf einem gewünschten Genauig­ keitsgrad der Bildrekonstruktion oder einer gewünschten Bildrekonstruktionsgeschwindigkeit beruht.
26. Vorrichtung nach Anspruch 24 oder 25, dadurch gekenn­ zeichnet, daß der adaptive Prozessor die ΔL(r,θ)-Deri­ vatdaten längs eines geeignet bzw. adaptiv begrenzten Bereichs von Rückprojektionsrichtungen (θ) rückproji­ ziert, wobei die geeignete Anpassung des begrenzten Bereichs auf einem gewünschten Genauigkeitsgrad der Bildrekonstruktion oder der gewünschten Bildrekonstruk­ tionsgeschwindigkeit beruht.
27. Vorrichtung nach Anspruch 24, dadurch gekennzeichnet, daß der adaptive Prozessor die ΔL(r,θ)-Derivatdaten in eine geeignet bestimmte Größe für den 2D-Raum rückpro­ jiziert.
28. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet, daß der adaptive Prozessor die Größe des Raums aufgrund eines gewünschten Genauigkeitsgrades der Bildrekonstruk­ tion oder einer gewünschten Bildrekonstruktionsgeschwin­ digkeit bestimmt.
29. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, daß der adaptive Prozessor einen Speicher zum Speichern von Werten für eine Pixelausbreitungs-Funktionstabelle enthält, die für Teile der 2D-Konusbündel-Projektionsda­ ten geeignet vorbestimmt ist, die die obere und untere Grenze der Maske überschneiden, wobei der adaptive Prozessor Teile der 2D-Konusbündelprojektion mit den Werten der Pixelausbreitungs-Funktionstabelle multipli­ ziert.
30. Vorrichtung nach Anspruch 29, dadurch gekennzeichnet, daß die geeignete Anpassung der Pixelausbreitungs-Funk­ tionstabelle auf einem gewünschten Genauigkeitsgrad der Bildrekonstruktion oder einer gewünschten Bildrekon­ struktionsgeschwindigkeit beruht.
31. Vorrichtung nach Anspruch 29 oder 30, dadurch gekenn­ zeichnet, daß die geeignete Anpassung der Pixelausbrei­ tungs-Funktionstabelle durch Bestimmung der Linieninte­ gralderivate für nur einen begrenzten Winkelbereich (6) für Liniensegmente ΔL(r,θ) vorbestimmt ist.
32. Vorrichtung nach Anspruch 31, dadurch gekennzeichnet, daß die Pixelausbreitungs-Funktionstabelle durch 2D- Rückprojektion der bestimmten Linienintegralderivate längs nur eines begrenzten Winkelbereichs (6) von Rück­ projektionsrichtungen geeignet vorbestimmt ist.
33. Vorrichtung nach Anspruch 31, dadurch gekennzeichnet, daß die Pixelausbreitungs-Funktionstabelle durch 2D- Rückprojektion der bestimmten Linienintegralderivate in einen 2D-Raum mit einer geeignet bestimmten Größe geeig­ net vorbestimmt ist.
34. Vorrichtung nach Anspruch 31, dadurch gekennzeichnet, daß die Pixelausbreitungs-Funktionstabelle die Größe des 2D-Raums aufgrund eines gewünschten Genauigkeitsgrades der Bildrekonstruktion oder einer gewünschten Bildrekon­ struktionsgeschwindigkeit geeignet vorbestimmt.
DE19945606A 1998-09-28 1999-09-23 Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts Withdrawn DE19945606A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/162,303 US6084937A (en) 1998-07-27 1998-09-28 Adaptive mask boundary correction in a cone beam imaging system

Publications (1)

Publication Number Publication Date
DE19945606A1 true DE19945606A1 (de) 2000-03-30

Family

ID=22585063

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19945606A Withdrawn DE19945606A1 (de) 1998-09-28 1999-09-23 Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts

Country Status (3)

Country Link
US (1) US6084937A (de)
JP (1) JP2000102530A (de)
DE (1) DE19945606A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10248766A1 (de) * 2002-10-18 2004-07-15 Siemens Ag Verfahren zur Bilderstellung für einen mehrzelligen Spiral-Computertomographen und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens
CN115619907A (zh) * 2022-12-15 2023-01-17 航天宏图信息技术股份有限公司 一种自适应建筑物直角化方法和装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6687393B1 (en) * 1999-07-16 2004-02-03 General Electric Company Efficient methods and apparatus for resampling three dimensional datasets
US6292525B1 (en) * 1999-09-30 2001-09-18 Siemens Corporate Research, Inc. Use of Hilbert transforms to simplify image reconstruction in a spiral scan cone beam CT imaging system
US6330298B1 (en) * 2000-10-17 2001-12-11 Siemens Corporate Research, Inc. Method and apparatus for simplifying the correction of image inaccuracies caused by processing of masked cone beam projection data
US6324245B1 (en) * 2000-10-17 2001-11-27 Siemens Corporation Research, Inc. Method and apparatus for identifying and correcting image inaccuracies caused by simplified processing of masked cone beam projection data
US6574297B2 (en) * 2001-10-30 2003-06-03 Siemens Corporate Research, Inc. System and method for image reconstruction in a cone beam imaging system
DE10248770A1 (de) * 2002-10-18 2004-05-06 Siemens Ag Verfahren zur Bilderstellung für einen mehrzeiligen Spiral-Computertomographen mit 3D-Rekonstruktion und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens
FR2856821B1 (fr) * 2003-06-27 2005-08-05 Commissariat Energie Atomique Procede de reconstruction d'une image tomographique par une methode analytique comprenant une modelisation amelioree du mouvement de l'objet.
US7403587B2 (en) * 2003-09-05 2008-07-22 Koninklijke Philips Electronics N.V. Computer tomography method using a cone-shaped bundle of rays
US7539281B2 (en) * 2004-10-15 2009-05-26 General Electric Company Methods and apparatus for reconstruction in helical cone beam volumetric CT
WO2006073584A2 (en) * 2004-11-24 2006-07-13 Wisconsin Alumni Research Foundation Cone-beam filtered backprojection image reconstruction method for short trajectories
US7379525B2 (en) * 2004-12-15 2008-05-27 General Electric Company Method and system for efficient helical cone-beam reconstruction
US7269244B2 (en) * 2006-01-25 2007-09-11 General Electric Company Methods and apparatus for generating thick images in cone beam volumetric CT
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
CN101158653B (zh) * 2007-11-16 2010-12-15 西北工业大学 一种锥束ct系统的散射测定和校正方法
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5390226A (en) * 1992-07-02 1995-02-14 General Electric Company Method and apparatus for pre-processing cone beam projection data for exact three dimensional computer tomographic image reconstruction of a portion of an object
US5390111A (en) * 1993-11-12 1995-02-14 General Electric Company Method and system for processing cone beam data for reconstructing free of boundary-induced artifacts a three dimensional computerized tomography image
US5504792A (en) * 1994-12-27 1996-04-02 General Electric Company Method and system for masking cone beam projection data generated from either a region of interest helical scan or a helical scan
US5878103A (en) * 1997-06-30 1999-03-02 Siemens Corporate Research, Inc. Adaptive detector masking for speed-up of cone beam reconstruction
US6018561A (en) * 1998-07-27 2000-01-25 Siemens Corporate Research, Inc. Mask boundary correction in a cone beam imaging system using simplified filtered backprojection image reconstruction

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10248766A1 (de) * 2002-10-18 2004-07-15 Siemens Ag Verfahren zur Bilderstellung für einen mehrzelligen Spiral-Computertomographen und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens
DE10248766B4 (de) * 2002-10-18 2005-02-10 Siemens Ag Verfahren zur Bilderstellung für einen mehrzeiligen Spiral-Computertomographen und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens
CN115619907A (zh) * 2022-12-15 2023-01-17 航天宏图信息技术股份有限公司 一种自适应建筑物直角化方法和装置

Also Published As

Publication number Publication date
US6084937A (en) 2000-07-04
JP2000102530A (ja) 2000-04-11

Similar Documents

Publication Publication Date Title
DE19945606A1 (de) Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts
DE19945636A1 (de) Verfahren und Vorrichtung zum dreidimensionalen CT-Abbilden eines interessierenden Bereichs in einem Objekt
DE2804158C2 (de)
DE69005492T2 (de) Verfahren zur Erfassung von radiologischen Daten und zur Rekonstruktion des Aufbaus eines bestrahlten Körpers.
DE19934992A1 (de) Masken-Grenzkorrektur bei einem Kegelstrahl-Bildsystem unter Anwendung einer vereinfachten Bildrekonstruktion mit gefilterter Rückprojektion
EP0990892B1 (de) Computertomographie-Verfahren mit kegelförmigen Strahlenbündel, und Computertomograph
DE69329514T2 (de) Verfahren und Gerät zum Vorverarbeiten von Kegelstrahlprojektionsdaten zur exakten dreidimensionalen CT-Bildrekonstruktion eines Teilobjekts
DE69810271T2 (de) Rechnergestützte abtast-tomographie mit veränderlicher stromstärke
DE69218839T2 (de) Tomographische Bilderzeugung mittels Schrägstrahlen
DE69033923T2 (de) Spiralabtastrechnertomographie
DE10211581A1 (de) Verfahren und Vorrichtung unter Verwendung eines verallgemeinerten spiralenförmigen Interpolationsalgorithmus
DE19856026A1 (de) Verfahren und Vorrichtung zur dreidimensionalen Abbildung mit computerisierter Tomographie
DE10164287A1 (de) Computertomographiegewichtung (CT-Gewichtung) zur Bildrekonstruktion mit hoher Qualität
DE19929646A1 (de) Verfahren und Vorrichtung zur Bildrekonstruktion in einem mit Kegelstrahl arbeitenden Bildgabesystem
DE102007039573A1 (de) Verfahren zur analytischen Rekonstruktion für eine Mehrfachquellen-Inversgeometrie-CT
DE19826043A1 (de) Verfahren und Vorrichtung zum Abtasten und Datenerfasen für dreidimensionale computerisierte tomographische Abbildung
DE3546233A1 (de) Verfahren und anordnung zum korrigieren einer verschiebung des drehungsmittelpunktes eines computertomographiesystems mit rotierendem faecherbuendel
DE2804157A1 (de) Verfahren und vorrichtung fuer die tomographie
EP1150251B1 (de) Computertomographie-Verfahren
DE69821082T2 (de) Abbildungsvorrichtung und Verfahren für Computertomographie
DE4424284A1 (de) Verfahren zum Verringern von Bildartefakten in einem tomographischen Bild
DE102007021023A1 (de) Verfahren zur Bilderstellung für die Spiral-CT mit veränderlichem Pitch und CT-Gerät zur Durchführung des Verfahrens
DE69932390T2 (de) Verfahren und Vorrichtung zur Bildrekonstruktion
DE3824326A1 (de) Verfahren und einrichtung zum rekonstruieren in ct-abtastern unter verwendung divergierender strahlen
DE69033922T2 (de) Verkleinerung von Patientenversetzungsartefakt in tomographischer Bildverarbeitung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
8139 Disposal/non-payment of the annual fee