DE19945606A1 - Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts - Google Patents
Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines ObjektsInfo
- Publication number
- DE19945606A1 DE19945606A1 DE19945606A DE19945606A DE19945606A1 DE 19945606 A1 DE19945606 A1 DE 19945606A1 DE 19945606 A DE19945606 A DE 19945606A DE 19945606 A DE19945606 A DE 19945606A DE 19945606 A1 DE19945606 A1 DE 19945606A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- image reconstruction
- projection
- mask
- correction data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012937 correction Methods 0.000 title claims abstract description 68
- 238000003384 imaging method Methods 0.000 title claims abstract description 17
- 238000003325 tomography Methods 0.000 title abstract 2
- 238000000034 method Methods 0.000 claims abstract description 61
- 150000003257 radon Chemical class 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 25
- 230000000873 masking effect Effects 0.000 claims description 22
- 230000003044 adaptive effect Effects 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000005855 radiation Effects 0.000 claims description 4
- 230000007480 spreading Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims 2
- 238000002347 injection Methods 0.000 claims 2
- 239000007924 injection Substances 0.000 claims 2
- 238000006073 displacement reaction Methods 0.000 claims 1
- 230000001678 irradiating effect Effects 0.000 claims 1
- 238000004513 sizing Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 10
- 238000010606 normalization Methods 0.000 description 9
- 230000010354 integration Effects 0.000 description 6
- 230000009467 reduction Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 229910052704 radon Inorganic materials 0.000 description 4
- SYUHGPGVQRZVTB-UHFFFAOYSA-N radon atom Chemical compound [Rn] SYUHGPGVQRZVTB-UHFFFAOYSA-N 0.000 description 4
- 238000013170 computed tomography imaging Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004804 winding Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/027—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis characterised by the use of a particular data acquisition trajectory, e.g. helical or spiral
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/421—Filtered back projection [FBP]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S378/00—X-ray or gamma ray systems or devices
- Y10S378/901—Computer tomography program or processor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- High Energy & Nuclear Physics (AREA)
- General Physics & Mathematics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Human Computer Interaction (AREA)
- Pulmonology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Beim dreidimensionalen (3D) computerisierten tomographischen (CT) Abbilden eines interessierenden Bereiches (ROI) eines Objekts wird die Bildrekonstruktion auf mehrere Sätze von 2D-Konusbündel-Projektionsdaten angewendet. Es wird eine Maske auf jeden Satz von Projektionsdaten angewendet, so daß Daten innerhalb der Grenzen jeder Maske eine entsprechende Anzahl von maskierten Datensätzen bildet. Dann wird jeder maskierte Datensatz längs mehreren parallelen Linien gefiltert und jeder gefilterte 2D-Datensatz entspricht einer Berechnung von Radonderivat-Daten. Sodann werden für die ersten Schätzungen jeweils Korrekturdaten erzeugt. Zuletzt werden die gefilterten Datensätze und die berechneten Korrekturdaten in einen 3D-Raum rückprojiziert.
Description
Die Erfindung bezieht sich auf ein Verfahren nach dem Oberbe
griff des Anspruchs 1 sowie auf eine Vorrichtung zur Durch
führung desselben nach dem Oberbegriff des Anspruchs 18.
Ein Konusbündel-Bildrekonstruktionsverfahren mit gefilterter
Rückprojektion (FBP) wird von H. Kudo und T. Saito in ihrem
Artikel mit dem Titel "Derivation and Implementation of a
Cone-Beam Reconstruction Algorithm for Nonplanar Orbits", in
IEEE Trans. Med. Imag., MI-13(1994) 196-211, beschrieben, auf
den hier Bezug genommen wird.
Kurz gesagt besteht das FBP-Verfahren aus den folgenden
Schritten bei jeder Konusbündelbetrachtung (d. h. bei jeder
Stellung der Strahlungsquelle, wenn sie um das Objekt herum
abtastet, und bei der ein Abbildungsdetektor einen entspre
chenden Satz von Projektionsdaten erfaßt):
- 1. Berechnen einer 1D-Projektion (d. h. eines Linieninte grals) des gemessenen Konusbündelbildes, das auf einer Detektorebene 1 unter jedem von mehreren Win keln θ erfaßt wurde. Dieser Schritt ist durch die Fig. 1A für einen gegebenen Winkel θ1 aus einer Anzahl von Winkeln θ dargestellt, wobei die Projek tion 2 bei den Koordinaten (r,θ) aus den integrierten Werten des Konusbündelbildes 4 auf der Detektorebene 1 längs einer Anzahl von parallelen Linien L(r,θ) besteht, die senkrecht zum Winkel θ liegen, wobei jede Linie L in einem Schrittabstand r von einem Nullpunkt O liegt. Allgemein, wenn die Detektorebene 1 eine N × N-Anordnung von Pixels umfaßt, dann wird die Anzahl von Winkeln θ normalerweise durch πN/2 gegeben.
- 2. Filtern jeder 1D-Projektion entsprechend einem d/dr- Filter, was zu einem neuen Satz von Werten bei jeder der r,θ-Koordinaten führt, wie durch die gefilterte Projektion 6 für den Winkel θ1 in Fig. 1A gezeigt.
- 3. Normalisieren der gefilterten Projektionen mit einer Normalisierungsfunktion M(r,θ). Eine Normalisierung ist erforderlich, um die Anzahl von Malen zu berück sichtigen, welche die Integrationsebene Q(r,θ), welche die Quellenstellung und die Linie L(r,θ) schneidet, die Abtastbahn schneidet, da die an jeder Abtastbahn-Überschneidung erzeugten Daten einen Beitrag zur Bildrekonstruktion auf der Ebene Q(r,θ) erzeugt.
- 4. Rückprojektion der gefilterten Projektion 6 von jedem Winkel θ in einen 2D-Objektraum 7, der mit der Detek torebene 1 zusammenfällt. Dieser Schritt ist in Fig. 1B dargestellt, wobei Linien 8 den Wert von jeder r,θ-Koordinate in den 2D-Raum 7 in einer Richtung senkrecht zu jedem θ ausbreiten.
- 5. Durchführung einer 1D-d/dt-Filterung des im 2D-Raum 7 durch den Schritt 4 gebildeten Rückprojektionsbildes. Die 1D-Filterung wird in Richtung der Abtastbahn, d. h. längs Linien 10, durchgeführt, wo t in die Richtung der Abtastbahn weist.
- 6. Durchführung einer gewichteten 3D-Rückprojektion der erhaltenen Daten im 2D-Raum 7 (d. h. von jedem Pixel im Detektor) auf eine Anzahl von Probepunkten P in einem 3D-Objektvolumen 12. Die jedem Punkt P zugeord nete Dichte wird durch den umgekehrten Wert des Quadrats des Abstands zwischen dem Punkt und den Raumkoordinaten der Röntgenstrahlenquelle gewichtet (siehe Gleichung (59) des erwähnten Artikels von Kudo et al).
Das obige bekannte Verfahren wird nachfolgend als 6-schritti
ges Verfahren bezeichnet. Es wird bei diesem Verfahren vor
ausgesetzt, daß das ganze Konusbündelbild des Objekts auf dem
Detektor des Abbildungssystems aufgefangen wird. Man nehme
eine Ebene Q(r,θ) an, welche das Objekt schneidet und von der
Quelle und der Linie L(r,θ) auf dem Detektor unter einem Win
kel θ und in einem Abstand r vom Nullpunkt gebildet wird.
Durch Ignorieren der Funktion M(r,θ) berechnen die Operatio
nen 1 bis 6 den Beitrag der rekonstruierten Objekdichte auf
der Ebene Q(r,θ) aus den die Ebene und ihre unmittelbare Um
gebung beleuchtenden Röntgenstrahlendaten. Da das 6-schritti
ge Verfahren Detektor-gesteuert ist, wird ein Beitrag von den
die Ebene beleuchtenden Daten jedesmal berechnet, wenn die
Ebene die Abtastbahn überschneidet und so durch das Röntgen
strahlenbündel beleuchtet wird. Dementsprechend wird die
Funktion M(r,θ) nach der Filterfunktion in Schritt 2 benutzt,
um die Resultate zu normalisieren. Eine Normalisierung ist
besonders unerwünscht, da sie die Vorberechnung und Speiche
rung einer 2D-Anordnung M(r,θ) für jede Quellenstellung längs
einer Bildabtastbahn erfordert. Da gewöhnlich hunderte, wenn
nicht tausende von Quellenstellungen vorhanden sind, ist
diese Art von Normalisierung sowohl berechnungsmäßig aufwen
dig und hinsichtlich der Betriebsmittel (Computerspeicher)
kostspielig. Im Artikel von Kudo et al wird jedoch auf Seite
203 bemerkt, daß in dem besonderen Fall, daß die Abtastbahn
ein Kreis ist, die Schritte 1 bis 5 bei einem einzigen Convo
lution-Schritt vereinfacht werden können, der im wesentlichen
eine Rampenfilterung des Konusbündelbildes in Richtung der
Abtastbahn umfaßt. Dieses Rampenfiltern entspricht dem be
kannten Feldkamp-Algorithmus für eine einzige kreisförmige
Umlaufbahn, wobei dieser Algorithmus ausführlich in dem
Artikel von L. A. Feldkamp, L. C. Davis und J. W. Kress mit dem
Titel "Practical cone-beam algorithm", veröffentlicht in
J. Opt. Soc. Am. A. Band 1, 1984, Seiten 612-619, beschrieben
ist, auf den hier Bezug genommen wird (siehe insbesondere die
Convolution-Funktionsgleichungen 15 und 16 auf Seite 614,
welche die Convolution-Funktion folgendermaßen beschrei
ben:
g(Y) = Re∫0 wy0exp(iwY)wdw).
Der Schlüssel zu dieser Vereinfachung liegt darin, daß im
besonderen Fall einer kreisförmigen Abtastbahn die Normali
sierungsfunktion M(r,θ) eine Konstante und gleich 2 ist.
Dadurch kann die gefilterte Projektion bei jedem r,θ, die
sich nach Schritt 2 ergibt, lediglich durch 2 geteilt werden,
um die Datenredundanz zu kompensieren.
Die US-Patentanmeldung mit der Ser. No. 09/106 537, auf die
hier Bezug genommen wird, beschreibt, wie diese Rampenfil
ter-Vereinfachung für die Bildrekonstruktion in einem Konus
bündel-Abbildungssystem mit anderen als einen einzigen Kreis
enthaltenden Quellenabtastbahnen, wie eine spiralige Abtast
bahn, angewendet wird, und darüber hinaus in einem Konusbün
del-Abbildungssystem mit einem kurzen Detektor, d. h. einem
Detektor, der nur einen Teil des 2D-Konusbündelbildes bei
jeder Konusbündelbetrachtung (d. h. bei jeder Quellenstellung)
einfängt. Wie ausführlicher in der genannten US-Patentanmel
dung beschrieben, umfaßt ein vereinfachtes "3-Schritt"-Ver
fahren:
- 1. Anwenden einer Maske auf jeden Satz von 2D-Konusbündel- Projektionsdaten, die in jeder Quellenstellung erfaßt werden, und dadurch Ausbilden eines maskierten 2D-Daten satzes für jede Quellenstellung,
- 2. Rampenfiltern der 2D-Konusbündel-Projektionsdaten inner halb jedes maskierten 2D-Datensatzes, wodurch rampenge filterte 2D-Datensätze gebildet werden, und
- 3. Unterwerfen der rampengefilterten 2D-Datensätze einer gewichteten 3D-Rückprojektion in einen 3D-Raum entspre chend einem vollständigen Betrachtungsfeld eines interes sierenden Bereiches (region of interest bzw. ROI) des Gegenstandes und dadurch Rekonstruieren im 3D-Raum eines 3D-Bildes des ROI im Objekt.
Ein wesentlicher Teil dieser früheren Erfindung ist das
Maskierungsverfahren. Das Maskieren ermöglicht eine große
Beschleunigung des Bildrekonstruktionsvorgangs infolge eines
verringerten Bedarfs an ausführlichen Berechnungen, das
Ausschalten der Notwendigkeit des Normalisierungsschrittes 3
des 6-schrittigen Verfahrens (und dadurch Vermeiden des
Bedarfs an beträchtlichem Speicherplatz für die Normalisie
rungsfaktoren), und darüber hinaus kann das Abbildungssystem
einen kurzen Detektor verwenden, d. h. einen, der nicht bei
jeder Quellenstellung eine vollständige Ansicht des ROI des
Objekts erfaßt.
Die frühere Erfindung von K. Tam kann als Anwenden des Maskie
rens auf die Schritte 1 bis 5 des 6-schrittigen Verfahrens
nach Kudo et al. gefolgt von Schritt 6, betrachtet werden. Die
Anwendung des Maskierens auf die Schritte 1 und 2 von Kudo et
al entspricht im Grundgedanken den folgenden Operationen:
- 1. Berechnen der Integrale an durch die Maske begrenzten Liniensegmenten, und
- 2. Berechnen der Differenz der so an benachbarten paral lelen Liniensegmenten berechneten Linienintegrale.
Es ist beabsichtigt, daß die Schritte ml und m2 eine dem
Radon-Derivat für den Teil der Ebene Q(r,θ) proportionale
Quantität ergeben, der durch die gegenwärtige Quellenstellung
und die frühere und die nachfolgende Quellenstellung defi
niert ist. Die Bereiche für verschiedene Teile der Ebene
Q(r,θ) sind in Fig. 3 dargestellt und werden weiter unten
ausführlich beschrieben.
Die Operationen in den Schritten m1 und m2 sind in Fig. 4
dargestellt. Wie darin gezeigt, sind L, L1' und L2'
drei eng benachbarte parallele Liniensegmente, die durch eine
Maske 400 begrenzt sind, wobei L in der Mitte zwischen
L1' und L2' liegt. Das Liniensegment L entspricht
vielen solchen Liniensegmenten, die unter verschiedenen
Winkeln in der Maske 400 gebildet sind, und entspricht den
vorher beschriebenen Linien L(r,θ) der Fig. 1A und den Linien
8 in Fig. 1B, wie es dem Fachmann auf diesem Gebiet bekannt
ist, die zum Berechnen von Radonderivat-Daten aus den Konus
bündel-Projektionsdaten verwendet werden. Beim vorliegenden
Verfahren wird die arithmetische Differenz zwischen den
Integralen, die für ein gegebenes Paar von Liniensegmenten
L1' und L2' in der Maske 400 berechnet werden, be
stimmt und entspricht dem Radonderivat der Teilebene, die
durch das Liniensegment L die momentane Quellenstellung bis
zu einer multiplikativen Konstante definiert ist. Tatsächlich
ergibt jedoch dieses Maskierungsverfahren nur eine Annäherung
des Radonderivats der Teilebene. Dies liegt daran, daß, wie
in US-5 748 697 beschrieben, das Radonderivat für den rele
vanten Teil der Ebene Q(r,θ) berechnet werden sollte, wie in
Fig. 5 gezeigt. Wie aus Fig. 5 hervorgeht, ist das Linienseg
ment L das gleiche wie das in Fig. 4 gezeigte, jedoch werden
die Liniensegmente L1 und L2 durch Orthogonalver
schiebung von L erhalten, wie sie sein sollten. Daher sind im
Gegensatz dazu, was in Fig. 4 gezeigt ist, die Enden der
Liniensegmente L1 und L2 gemäß Fig. 5 nicht durch die
Maske 500 begrenzt. Das Enden der Liniensegmente an den
Grenzen der Maske wird nachfolgend als "hartes Maskieren"
bezeichnet. Infolge des harten Maskierens ergibt die arith
metische Differenz zwischen den an den Liniensegmenten
L1' und L2' berechneten Integralen nicht ein exaktes
Radonderivat, d. h. eines, das sich nur durch eine multiplika
tive Konstante unterscheidet.
US-Patentanmeldung Ser. No. 09/123 574 beschreibt ein Verfah
ren zum Berechnen von 2D-Korrekturdaten, die, wenn sie mit
den rampengefilterten annähernden 2D-Datensätzen kombiniert
werden, eine exakte Bildrekonstruktion ergeben. Die 2D-Kor
rekturdaten erfordern jedoch eine 3D-Rückprojektion von einem
virtuellen Detektor, welcher das ganze Objekt überdeckt,
statt vom tatsächlichen Detektor. Der virtuelle Detektor ist
gewöhnlich viel größer als der tatsächliche Detektor, und
daher ist die Signalverarbeitung zur Durchführung der 3D-
Rückprojektion der 2D-Korrekturdaten wesentlich größer als
für die anggenäherten Daten.
Durch die Erfindung soll die Menge der auf die Korrekturdaten
bezogenen Signalverarbeitung, die zur Entwicklung einer
exakten Bildrekonstruktion erforderlich ist, ohne wesentliche
Beeinträchtigung der Genauigkeit der Bildrekonstruktion
verringert werden.
Diese Aufgabe wird erfindungsgemäß hinsichtlich des Verfah
rens durch die Merkmale des Anspruchs 1 und hinsichtlich der
Vorrichtung durch die Merkmale des Anspruchs 18 gelöst. Die
Unteransprüche sind auf vorteilhafte Ausgestaltungen der
Erfindung gerichtet.
Die Erfindung schafft ein Verfahren und eine Vorrichtung für
dreidimensionales (3D) computerisiertes tomographisches (CT)
Abbilden eines interessierenden Bereichs (ROI) eines Objekts,
wobei die Bildrekonstruktionsverarbeitung auf eine Anzahl von
Sätzen von 2D-Konusbündel-Projektionsdaten angewendet wird,
von denen jeder Satz auf einem 2D-Detektor bei einer ent
sprechenden Anzahl von Abtastbahn-Quellenstellungen erfaßt
wird. Ein erster Bildrekonstruktion-Verarbeitungsschritt
besteht aus dem Anwenden einer Maske auf jeden Satz der
Projektionsdaten, so daß Daten innerhalb der Grenzen jeder
Maske eine entsprechende Anzahl von maskierten 2D-Datensätzen
bilden. Der nächste Schritt besteht aus dem Rampenfiltern der
Daten innerhalb jedes maskierten 2D-Datensätzen längs einer
Anzahl von darin gebildeten parallelen Linien, um eine ent
sprechende Anzahl von gefilterteh 2D-Datensätzen zu erzeugen.
Jeder gefilterte 2D-Datensatz entspricht einer Berechnung
einer ersten Schätzung der Radonderivat-Daten, die aus einem
gegebenen Satz der 2D-Konusbündel-Projektionsdaten bestimmt
wird. Der nächste Schritt besteht aus dem adaptiven Erzeugen
von 2D-Korrekturdaten für jede der ersten Schätzungen der
Radonderivat-Daten. Der letzte Schritt besteht aus dem Kombi
nieren jedes gefilterten 2D-Datensatzes und der dafür berech
neten adaptiv bestimmten 2D-Korrekturdaten in einer gewichte
ten 3D-Rückprojektionsweise in einen 3D-Raum und dadurch
Rekonstruieren eines 3D-Bildes des ROI im Objekt.
Anhand der Figuren werden der nächstliegende Stand der Tech
nik sowie vorteilhafte Ausgestaltungen der Erfindung näher
erläutert. Es zeigen:
Fig. 1A und 1B die bekannte 3D-Rückprojektionslösung
für Konusbündel-Bildrekonstruktion nach Kudo et al. wie oben
beschrieben,
Fig. 2 eine Konusbündel-Abbildungsvorrichtung für die
Durchführung einer Bildrekonstruktion gemäß der Erfindung,
Fig. 3 einen Vorgang zur Datenkombination, wenn eine
Bildrekonstruktion gemäß der Erfindung durchgeführt wird,
Fig. 4 und 5 harte bzw. weiche Maskierung, wobei je
des Verfahren zur Erzeugung von Radonderivat-Daten aus der
erfaßten Konusbündelprojektion anwendbar ist,
Fig. 6 eine Darstellung zum Verständnis der Erzeugung
der in den Fig. 4, 5 und 7 bis 10 gezeigten Masken,
Fig. 7 und 8 die Form der Masken, die bei Quellen
stellungen nahe der oberen und unteren Spiralabtastbahn gemäß
Fig. 2 verwendet werden,
Fig. 9 das Rampenfiltern eines maskierten Datensatzes,
Fig. 10 eine Darstellung der arithmethischen Differenz
zwischen harter und weicher Maskierung und zum Verständnis,
wie genauere Radonderivat-Daten zu erzeugen sind,
Fig. 11 die relative Menge von Korrekturdaten, die als
Funktion des Winkels erzeugt wird, den die Rückprojektions
richtung mit den Maskengrenzen einschließt, und
Fig. 12 den relativen Wert des Beitrags zu den Radonde
rivat-Daten aus den Korrekturdaten als Funktion des Winkels,
den die Rückprojektionsrichtung mit den Maskengrenzen ein
schließt.
Fig. 2 zeigt eine Konusbündel-3D-CT-Abbildungsvorrichtung
zum Erfassen und Verarbeiten von erfaßten Projektionsdaten
gemäß der vorliegenden Erfindung. Die dargestellte Abbil
dungsvorrichtung ist aufgebaut und arbeitet im wesentlichen
nach den gleichen Grundsätzen, die in US 5 257 183 und US 5
453 666 beschrieben sind und auf die hier Bezug genommen
wird, ausgenommen die nachfolgende Beschreibung bezüglich der
Ergänzung des Bildrekonstruktionsvorgangs gemäß der vorlie
genden Erfindung.
Wie in Fig. 2 gezeigt, veranlaßt in Abhängigkeit von Steuer
signalen aus einem geeignet programmierten Computer 206 ein
computergesteuerter Manipulator 208 ein Zusammenwirken (Ab
tasten) einer Quelle 210 eines konus- oder pyramidenförmigen
Energiebündels (wie Röntgenstrahlen) und einer zweidimensio
nalen pixelierten Detektoranordnung 212 an einer Anzahl von
diskreten, nacheinander auftretenden benachbarten Quellen
stellungen längs einer vorbestimmten Quellenabtastbahn. Bei
der dargestellten Ausführungsform ist die Abtastbahn als
spiralige Abtastbahn 214 dargestellt, die auf eine vorbe
stimmte Achse 215 eines Objekts 216 zentriert ist. Andere
Arten von Abtastbahnen, die das Objekt 216 umfassen und
durchsetzen, können ebenfalls angewendet werden, wie jedoch
weiter unten ersichtlich wird, wird eine Abtastbahn 214
bevorzugt, die einen hohen Symmetriegrad in ihrer Parallel
projektion zeigt.
Das einzige Höhenerfordernis des Detektors besteht darin, daß
es mehr als den Abstand zwischen benachbarten Windungen einer
Projektion der spiraligen Abtastbahn am Detektor umfaßt. Wenn
nur ein interessierender Bereich (region of interest - ROI)
im Objekt 216 bei einer bevorzugten Ausführungsform abzubil
den ist, wird das bekannte Verfahren angefügt, eine obere
Kreisabtastung T am oberen Ende des ROI und eine untere
Kreisabtastung B am unteren Ende des ROI vorzusehen.
Infolge des Zusammenwirkens von Quelle und Detektor unter der
Steuerung des Computers 206 und des Manipulators 208 tritt in
jeder der Quellenstellungen längs der Bahn 214 Röntgenstrah
lungsenergie durch das Gesichtsfeld der Abbildungsvorrich
tung, wird durch das Objekt 216 geschwächt, und ein Satz von
Projektionsdaten entsprechend der auf die Elemente (Pixels)
innerhalb des Detektors 212 fallenden abgetasteten Röntgen
strahlungsenergie wird im Detektor 212 erzeugt. Jeder Satz
von Projektionsdaten wird auf ein Datenerfassungssystem (DAS)
217 gegeben, das, wie die vorher beschriebenen Teile der
Fig. 2, in einer dem Fachmann bekannten Art die erfaßten
Projektionsdaten digitalisieren und speichern kann.
In den erwähnten Patentschriften US 5 257 183 und 5 453 666
wird eine Bildrekonstruktionsverarbeitung 218 durch Radon
raum-gesteuerte Umwandlungen vorgesehen, wodurch eine Bildre
konstruktion des Objekts 216 auf einem Display 220 erzeugt
wird. Der Erfinder der vorliegenden Erfindung hat einen Weg
entwickelt, die Technik der Datenkombination für ROI-Rekon
struktion in die Bildrekonstruktions-Verarbeitungsvereinfa
chung von Kudo et al für einen einzigen Kreisabtastungs-Ab
bilder einzubauen und dadurch ein Konusbündel-Abbildungs
system zu erzeugen, das nicht nur eine spiralige Abtastbahn
aufweisen kann, sondern auch einen kurzen Detektor verwenden
kann. Statt der Teilung durch die Funktion M(r,θ) wie bei
Kudo et al wird erfindungsgemäß die Normalisierung der rekon
struierten Objektdichten durch Teilung der Röntgenstrahlungs
bündel-Überdeckung der Ebene Q(r,θ) zwischen den verschiede
nen Quellenstellungen erzielt, welche die Ebene ohne jede
Überlappung beleuchten. Infolgedessen wird der erfindungsge
mäße Bildrekonstruktionsvorgang stark beschleunigt infolge
eines verringerten Erfordernisses an ausgedehnten Berechnun
gen, das Erfordernis einer signifikanten Speicherzuordnung
für den Normalisierungsschritt 3 wird vermieden und darüber
hinaus kann das Abbildungssystem einen kürzeren Detektor
verwenden, d. h. einen, der nicht in jeder Quellenstellung
eine vollständige Betrachtung des ROI des Objekts erfordert.
Insbesondere ist dieses Konzept der Teilung der Röntgenstrah
lenbündelüberdeckung in Fig. 3 dargestellt, die eine typische,
das zylindrische Objekt 216 und die spiralige Abtastbahn 214
schneidende Integrationsebene Q(r,θ) darstellt, von der
angenommen wird, daß sie sich um einen ROI im Objekt 216 auf
einem imaginären Zylinder wickelt. Eine Kantendarstellung der
Ebene Q ist in Fig. 3 dargestellt. Da eine nichtvertikale
Ebene einen Zylinder in Ellipse schneidet, schneidet die
Ebene Q(r,θ) das Objekt 216 und die zylindrische spiralige
Abtastbahn 214 in zwei Ellipsen, von denen die eine innerhalb
der anderen liegt.
Die Schnittlinie der Integrationsebene Q mit dem Objektzylin
der ist durch die kleinere Ellipse E1 angegeben, und ihre
Schnittlinie mit dem Abtastbahnzylinder ist durch die größere
Ellipse E2 angegeben. Da die spiralige Bahn 214 auf dem
Abtastbahnzylinder liegt, schneidet sie die Ebene Q in Punk
ten, die auf der Ellipse E2 liegen. Diese Quellenstellungen
sind als S1, S2 und S3 in Fig. 3 dargestellt. In gleicher Weise
kann leicht gesehen werden, daß der obere Abtastbahnkreis die
Ebene in zwei Punkten T1 und T2 schneidet, die auf der
Schnittlinie zwischen E2 und dem oberen Rand des interessie
renden Bereiches des Objekts (abgeschatteter Teil des Objekts
216) liegen, und daß der untere Kreis die Ebene in zwei
Punkten B1 und B2 schneidet, die auf der Schnittlinie zwi
schen E2 und dem unteren Rand des interessierenden Bereichs
des Objekts liegen. Andere Integrationsebenen können mehr
oder weniger Überschneidungen mit der spiraligen Abtastbahn
aufweisen, was von ihrer Orientierung abhängt, und müssen
nicht die obere oder untere kreisförmige Abtastbahn schnei
den.
Wie aus Fig. 3 ersichtlich, sind die Quellenstellungen, welche
denjenigen Teil der Integrationsebene Q beleuchten, der in
nerhalb des ROI (abgeschatteter Bereich 300) liegt, T2,
S1, S2, S3 und B2. Eine vollständige Röntgen
strahlenüberdeckung des interessierenden Bereiches 300 dieses
Teils der Integrationsebene kann durch geeignetes Kombinieren
der an diesen fünf Quellenstellungen erfaßten Daten, wie in
Fig. 3 angedeutet, erreicht werden. Beispielsweise werden bei
T2 nur die Konusbündeldaten innerhalb des Winkels benutzt
der durch T1T2 und S1T2 eingeschlossen wird,
und bei S1 werden nur die Konusbündeldaten innerhalb des
Winkels benutzt, der durch T2S1 und S2S1 ein
eingeschlossen ist. Und so weiter. Fünf Teilebenen P1 bis P5
werden daher durch die Quellenstellungen T2, S1, S2
S3 und B2 definiert, die sich nicht überlappen und
zusammen den Teil der Ebene Q vollständig überdecken; der
innerhalb des ROI 300 liegt. Auf diese Weise beleuchtet die
Gesamtheit der Konusbündeldaten von jeder der beitragenden
Quellenstellungen die ganze Ebene Q(r,θ) nur einmal ohne je
de Überlappung. Weitere Einzelheiten dieses Datenkombina
tionsverfahrens gehen aus den früheren Konusbündel-Patenten
von K. Tam, wie US 5 463 666, hervor.
Da nur spezielle nicht überlappende Beiträge zu den Radonda
ten aus den Projektionsdaten entwickelt werden, kann die
Funktion M(r,θ) für alle Konusbündelbetrachtungen auf Eins
gesetzt werden. So werden, wenn die vom Detektor in jeder der
Quellenstellungen erfaßten Konusbündel-Projektionsdaten
verarbeitet werden, wie als nächstes beschrieben, Beiträge zu
jeder den ROI schneidenden Ebene nur einmal erzeugt.
Wie oben in Verbindung mit Fig. 3 beschrieben, sollten die
erfaßten Konusbündel-Projektionsdaten auf den geeigneten
Winkelbereich eingeschränkt werden, um Datenüberfluß zu
vermeiden, und dadurch das Erfordernis der Normalisierungs
funktion M(r,θ) nach Kudo et al zu vermeiden. Für die erfin
dungsgemäße Bildrekonstruktion wird dies durch Anwendung
eines Maskierungsverfahrens erreicht. Allgemein ist die
Maskierung von erfaßten Konusbündel-Projektionsdaten bekannt,
siehe beispielsweise die frühere US 5 504 792. Fig. 4 zeigt
eine solche Maske 400. Die Maske 400 besteht aus einer oberen
Kurve 402 und einer unteren Kurve 404, wobei jede Kurve durch
Konusbündelprojektionen der spiraligen Abtastbahnwindung
oberhalb bzw. unterhalb der momentanen Quellenstellung auf
den Detektor (212 in Fig. 2) gebildet wird. Für einen auf der
Rotationsachse gelegenen ebenen Detektor, derart, daß eine
die Quelle mit dem Detektornullpunkt verbindende Linie senk
recht auf der Detektorebene steht, wird die Gleichung für die
obere Kurve 402 für die Spiralabtastbahn-Projektion gegeben
durch:
wobei x and y die kartesischen Koordinatenachsen des Detek
tors sind, die y-Achse mit der Drehachse zusammenfällt, a der
Radius der Spirale und h der Abstand zwischen benachbarten
Spiralwindungen (die Steighöhe) ist. Die untere Kurve 404 ist
eine Spiegelung der oberen Kurve 402 am Nullpunkt, d. h.
(x,y) ⇒ (-x,-y),
Wie in Verbindung mit Fig. 2 beschrieben, sind für die ROI-Ab
bildung Kreisbogenabtastungen in der oberen und unteren Höhe
erforderlich. Die obere Kreisabtastung T beginnt beim Winkel
(7r+α) vor dem Start der Spiralabtastung, und die untere
Kreisabtastung B endet am Winkel (π+α) nach dem Ende der
Spiralabtastung, wobei α der Öffnungswinkel des Röntgenstrah
lungsbündels ist. Die genaue Geometrie der an jeder Quellen
stellung verwendeten Maske hängt von der Lage der Quelle auf
der Abtastbahn ab. Dementsprechend kann man die spiralige
Abtastbahn in fünf getrennte Bereiche unterteilen, wie in
Fig. 6 dargestellt. Der erste Bereich umfaßt die letzte (π+α)-Drehung
des oberen Kreises (im Uhrzeigersinn von B nach
A). Der zweite Bereich umfaßt die erste (π+α)-Drehung der
Spirale (im Uhrzeigersinn von A nach C). Der dritte Bereich
umfaßt den inneren Teil der Spirale, d. h. nach der ersten
(π+α)-Drehung und vor der letzten (π+α)-Drehung. Der vierte
Bereich umfaßt die letzte (π+α)-Drehung der Spirale (ähnlich
wie beim zweiten Bereich). Der fünfte Bereich umfaßt die
erste (π+α)-Drehung des unteren Kreises (ähnlich dem ersten
Bereich, jedoch am unteren Ende). Die Masken für diese fünf
Bereiche werden ausführlich weiter unten beschrieben und sind
in den Fig. 7 bis 8 dargestellt. Diese Figuren setzen
voraus, daß die Strahlungsquelle sich auf einer Spiralbahn
von oben nach unten im Uhrzeigersinn dreht.
- 1. Für die letzte (n+a)-Drehung des oberen Kreises,
siehe Maske 700 in Fig. 7, worin:
- - die obere Kurve eine horizontale Linie in Höhe des oberen Kreisbogens ist, und
- - die untere Kurve eine Spiegelung der Gleichung (1) am Nullpunkt ist.
- 2. Für die erste (π+α)-Drehung der Spirale, siehe Maske
800 der Fig. 8, worin:
- - die obere Kurve die Schnittlinie von zwei Kurven ist:
der normalen oberen Spiralmaske, Gleichung (1), und der Konusbündelprojektion des oberen Kreises, proji ziert von der Quelle, gegeben durch die Gleichung:
worin 2b der Abstand zwischen dem oberen und unteren Kreis ist; und - - die untere Kurve eine Spiegelung der Gleichung (1) am Nullpunkt ist.
- - die obere Kurve die Schnittlinie von zwei Kurven ist:
- 3. Für den inneren Teil der Spirale, siehe Maske 400
der Fig. 4, worin:
- - die obere Kurve durch Gleichung (1) beschrieben wird, und
- - die untere Kurve eine Spiegelung der Gleichung (1) am Nullpunkt ist.
- 4. Für die letzte (π+α)-Drehung der Spirale siehe Maske 800 der Fig. 8, jedoch um 180° gedreht.
- 5. Für die erste (π+α)-Drehung des unteren Kreises, siehe Maske 700 der Fig. 7, jedoch um 180° gedreht.
Ein erster Schritt der Bildrekonstruktion umfaßt die Begren
zung des Satzes von Projektionsdaten, der vom Detektor in
jeder Quellenstellung erfaßt wurde, mit einer geeigneten
Maske, wie einer der Masken der Fig. 4 und 7 bis 8. Ent
sprechend den Grundgedanken des Maskierens wird angenommen,
daß außerhalb der Maske gelegene Daten im Satz den Wert Null
haben, während der Wert der Daten innerhalb der Maske unver
ändert belassen wird. Nach geeigneter Maskierung eines Satzes
von Projektionsdaten wird er als maskierter Satz von Projek
tionsdaten oder einfacher als maskierter Datensatz bezeich
net. Da die Masken durch Konusbündelprojektion der Spiralwin
dung oberhalb und der Windung unterhalb der gegenwärtigen
Quellenstellung gebildet werden, entspricht der maskierte
Datensatz genau dem Winkelbereich, der durch die frühere und
die folgende Quellenstellung begrenzt wird, wie es durch das
in Fig. 3 dargestellte Prinzip der Datenkombination erfordert
wird. Der Computer 206 der Fig. 2 kann die Masken "fliegend"
während der Bildrekonstruktion berechnen, oder sie könnten
vorberechnet und im Systemspeicher gespeichert sein.
Als nächstes wird das Rampenfilterverfahren von Feldkamp auf
die maskierten Sätze von Projektionsdaten angewendet, wodurch
die Schritte 1 bis 5 des bekannten sechsstufigen Verfahrens
zu einem einzigen Rampenfilterschritt vereinfacht werden, wie
in Fig. 9 dargestellt. Insbesondere wird jeder Satz von mas
kierten Daten längs einer Anzahl von darin geformten paral
len Linien (t) rampengefiltert, wobei diese Linien parallel
zu und in Richtung einer Parallelprojektion in den Datensatz
einer Linie verlaufen, die tangential zur Abtastbahn in der
Quellenstellung ist, welche diesen Datensatz erfaßt hat,
sowie in der Richtung der nächsten Quellenstellung. Das
Rampenfiltern jedes maskierten Datensatzes längs Linien (t)
erzeugt eine entsprechende Anzahl von gefilterten Datensät
zen, wobei die Daten an jedem Punkt längs jeder Linie einer
Summierung der Radondaten an diesem Punkt entsprechen, wie es
bei der Entwicklung durch die Schritte 1 bis 5 des sechs
schrittigen Verfahrens nach Kudo et al der Fall gewesen wäre.
Dementsprechend ist der einzige verbleibende Schritt zum
Rekonstruieren des Bildes eine 3D-Rückprojektion entsprechend
dem Schritt 6 von Kudo et al. Dieser 3D-Rückprojektions
schritt kann auch vom Computer 206 durchgeführt werden, wobei
die erhaltene Bildrekonstruktion am Display 220 erscheint.
Obwohl der einzige Schritt des Rampenfilterns nach Feldkamp
viel schneller ist als die Anwendung der bekannten Schritte 1-5,
besteht ein Verlust oder ist ein Preis zu zahlen, d. h.
die erzeugten Radondaten sind etwas weniger genau als es für
eine genaue Bildrekonstruktion erforderlich wäre. Dies beruht
auf der Tatsache, daß beim Berechnen der Linienintegral-Deri
vatdaten im sechschrittigen Verfahren von Kudo et al keine
Maskierung der Projektionsdaten stattfindet. Gleichermaßen
findet bei der Abänderung des Verfahrens nach Kudo et al. die
in der erwähnten Patentanmeldung USSN 09/052 281 beschrieben
ist, keine Maskierung der Projektionsdaten statt, nur im
Ausmaß der Liniensegmente L, für welche die Linienintegral-
Derivate berechnet werden. Das heißt z. B., wie in USSN 09/052
281 beschrieben, Linienintegrale für die benachbarten Linien
segmente L1 und L2 werden nicht maskiert, und tat
sächlich werden die Pixelwerte in Detektorzeilen oberhalb der
Detektorzeilen, welche die Endpunkte der Liniensegmente L
definieren, verwendet, um diese Linienintegrale genau zu
bestimmen (in ähnlicher Weise wie in den Fig. 5 und 6 in
US 5 748 697 gezeigt). Ein Maskieren findet nur statt auf den
Liniensegmenten L, nachdem die Linienintegrale für die Li
niensegmente L1 und L2 abgezogen worden sind, um die
Linienintegral-Derivate für die Liniensegmente L zu berech
nen. Es ist jedoch eine notwendige Konsequenz des Rampenfil
terns der maskierten Projektionsdaten gemäß dem erfindungsge
mäßen Bildrekonstruktionsverfahren, daß die Ausdehnung der
Liniensegmente L1 und L2 auch durch ihre Überschnei
dung mit der Maske begrenzt wird. Eine Folge dieser Tatsache
ist eine etwas weniger genaue Rekonstruktion, aber als Aus
gleich ergibt sich eine verbesserte Geschwindigkeit der
Bildrekonstruktion.
Die Erfindung beschreibt ein Verfahren zur Verbesserung der
Genauigkeit der Bildrekonstruktion ohne wesentliche Vergröße
rung der erforderlichen Menge von Bildrekonstruktions-Signal
verarbeitung.
Insbesondere durch Vergleich von Fig. 4 und Fig. 5 ist
ersichtlich, daß die Differenz zwischen den entsprechenden
Linienintegralen in den beiden Figuren nur an der oberen und
unteren Maskengrenze auftritt, wobei die Linienintegrale in
den übrigen Liniensegmenten identisch sind. So kann das
wirksame Rampenfilterverfahren, das in der erwähnten Patent
anmeldung 09/106 537 beschrieben ist, angewendet werden, um
eine erste Schätzung oder Annäherung des Radon-Derivats zu
berechnen, wobei implizit die Integrale an Liniensegmenten
innerhalb der Maske verwendet werden, wie in Fig. 4 gezeigt.
Als nächstes werden Korrekturdaten erzeugt, indem beispiels
weise das in der Patentanmeldung USSN 09/123 574 beschriebene
Verfahren angewendet wird, um die Differenz zwischen den
Linienintegralen an den Maskengrenzen zu berechnen. Die
Korrekturdaten werden sodann mit der ersten Schätzung kombi
niert, wodurch eine genauere Bildrekonstruktion erzeugt wird.
Die Bestimmung der Korrekturdaten entsprechend dem Verfahren
nach der genannten US- Patentanmeldung USSN 09/123 574 wird
nachfolgend beschrieben. Die Wirkung der harten Maskierung
der Fig. 4 auf die Berechnung der Linienintegral-Derivate für
die Linien L entspricht der Gleichung:
Die Wirkung der weichen Maskierung der Fig. 5 auf die Berech
nung der Linienintegral-Derivate für die Linien L entspricht
der Gleichung:
Unter gemeinsamer Beziehung auf die Fig. 4 und 10 (wobei
Fig. 10 der Fig. 5 entspricht, jedoch mit zusätzlichen Linien
segmenten ΔL, die an der Maske 1000 gezeigt sind und für die
Anzeige der Differenz in der Länge der Liniensegmente brauch
bar ist, die sich bei harter im Vergleich mit weicher Maskie
rung ergeben) kann die Gleichung 1 folgendermaßen umgeschrie
ben werden:
Durch geeignete Zusammenfassung von Ausdrücken kann die Glei
chung 3 umgeschrieben werden:
Substituieren der Gleichung 2 in Gleichung 4 ergibt:
Durch Umordnung der Ausdrücke ist ersichtlich, daß die genau
en Radon-Derivatdaten, die sich aus weicher Maskierung erge
ben, durch negatives Kombinieren des Ergebnisses der harten
Maskierung mit den Korrekturdaten (CR) verwirklicht werden
können, wie unten gezeigt:
Es wird ferner bemerkt, daß die Korrekturdaten der arithme
thischen Differenz zwischen weicher und harter Maskierung
entsprechen.
Da die Korrekturdaten nur an den zwei Maskengrenzkurven statt
über den ganzen Detektor berechnen werden müssen, läßt sich
ein Verringerungsverhältnis an Berechnung der Korrekturdaten
von etwa 2/Nz erzielen, wobei Nz die Anzahl von Detektorzei
len ist.
Da ferner die Korrekturdaten nur für Konusbündel-Projektions
daten berechnet werden, die durch Detektorpixels erfaßt
werden, welche die Maskengrenzen überschneiden, wird es
praktisch möglich, eine Pixelausbreitungs-Funktionstabelle zu
verwenden, um die Berechnung zu beschleunigen. Zum Erzeugen
der Pixelausbreitungs-Funktionstabelle für jedes Detektor
pixel (i, j), das von den Maskengrenzen überschnitten wird,
ordnet man einen Einheitswert dem Pixel und Null überall
sonst zu. Als nächstes führt man die in Fig. 5 angegebenen
Operationen durch. Die erhaltenen Werte werden sodann rück
projiziert (ausgebreitet bzw. spread-out) über einen "virtu
ellen Detektor"2D-Raum, der eine Höhe aufweist, die groß
genug ist, um das ganze Betrachtungsfeld des Objekts zu
überdecken. Die sich aus diesem Verfahren ergebende 2D-Infor
mation bildet eine normalisierte Pixelausbreitungs-Funktions
tabelle für das Grenzpixel (i, j). Es ist zu bemerken, daß die
Pixelausbreitungs-Funktionstabelle den virtuellen Detektor
und nicht den tatsächlichen (kurzen) Detektor überdeckt, da
die Rückprojektion von jedem Liniensegment auf die ganze
Ebene Q(r,θ) ausgedehnt werden sollte, wie von der Mathematik
der Radon-Inversion gefordert. Bei Durchführung wird die
additive Kombination jedes Grenzpixels (i, j) mit den 2D-Kor
rekturdaten einfach und schnell bestimmt, indem lediglich der
Intensitätswert der Konusbündel-Projektionsdaten bei jedem
Grenzpixel (i, j) mit den Werten ihrer Pixelausbreitungs-Funk
tionstabelle multipliziert wird und additiv die für jedes
Grenzpixel (i, j) erhaltenen Ergebnisse in einem gemeinsamen
2D-Virtuelldetektorraum kombiniert werden. Es ist zu bemer
ken, daß in üblicher Weise der für die Daten an jedem Grenz
pixel (i, j) verwendete Intensitätswert vorzugsweise ein
Bruchteil des tatsächlichen Intensitätswerts des Pixels ist,
wobei dieser Bruchteil dem Prozentsatz der innerhalb der
Maske gelegenen Pixelfläche entspricht.
Da etwa Nx Pixels auf der Maskengrenze liegen, und die Pixel
ausbreitungs-Funktionstabelle für jedes Pixel Nx auf Ny
Eingänge hat (wobei Nx auf Ny die Abmessungen des virtuellen
Detektors sind), ist die Größe der ganzen Pixelausbreitungs-
Funktionstabelle Nx mal Nx mal Ny. So ist die Tabelle ziem
lich groß. Es werden in der erwähnten Patentanmeldung USSN
09/123 574 verschiedene Verfahren zum Reduzieren der Tabel
lengröße beschrieben. Beispielsweise kann die gleiche Tabelle
für die Maskengrenz-Pixeldaten verwedet werden, die von allen
Quellenstellungen im Inneren der Spiralbahn erfaßt werden (da
diese Maskengrenzen alle die gleiche Form besitzen). Da
ferner die untere Maskengrenze die Spiegelung der oberen
Maskengrenze am Nullpunkt ist, d. h. (x, y) ⇒ (-x, -y), muß eine
Pixelausbreituns-Funktionstabelle nur für eine dieser Grenzen
berechnet werden, wodurch ein weiterer Reduzierungsfaktor von
2 in der Tabellengröße erzielt wird.
Ferner zeigt die Untersuchung der Masken für Quellenstellun
gen nahe den Kreisabtastungen für die ROI-Abbildung, wie in
den Fig. 7 und 8 gezeigt, wie weitere Reduzierungen der
Größe der Pixelausbreitungs-Funktionstabelle möglich sind.
Für solche Pixels in Teilen 802 und 804 der Maske 800 kann
die gleiche Pixelausbreitungs-Funktionstabelle verwendet
werden, die für die obere und untere Grenze der Maske 500
verwendet wurde. Es ist ersichtlich, daß alle Pixels auf der
horizontalen Linie 702 in Fig. 7 die gleiche Pixelausbrei
tungs-Funktionstabelle haben, und so sind nur zusätzliche Nx
mal Ny Eingänge für die Linie 702 erforderlich. Für diese
Pixels, die auf der unteren Grenze 704 in Fig. 7 liegen (wel
che die Projektion des unmittelbar benachbarten Spiralabtast
bahn-Segments von den Quellenstellungen auf der Kreisabtast
bahn ist), und auf der oberen Grenze 806 in Fig. 8 (welche die
Projektion der Kreisabtastbahn von den Quellenstellungen auf
dem unmittelbar benachbarten Spiralabtastbahn-Segment ist)
können die Korrekturdaten berechnet werden, indem direkt das
in Fig. 5 dargestellte Verfahren angewendet wird. Bei einer
normalen Spiralabtastung bedingen die meisten Blickwinkel die
in Fig. 4 dargestellte normale Spiralmaske, und die Anzahl von
die Grenzen 704 und 806 enthaltenden Blickwinkeln sind im
Vergleich klein. So ist auch die Zeit klein, die zum Berech
nen der auf die Grenzen 704 und 806 bezüglichen Korrekturen
gebraucht wird.
Die Kombination der 2D-Korrekturdaten mit den ersten 2D-
Schätzungsdaten kann vor dem gewichteten 3D-Rückprojektions
schritt durchgeführt werden (d. h. durch Kombinieren beider
Sätze der 2D-Daten in einem gemeinsamen 2D-Raum, wie dem in
Fig. 1B für die ersten Schätzungsdaten gezeigten Raum 7 und
demjenigen Teil des Raums 7, der sich mit dem virtuellen
Detektorraum für die Korrekturdaten überlappt), oder die
ersten Schätzungsdaten und die Korrekturdaten können einzeln
der gewichteten 3D-Rückprojektion von ihren eigenen 2D-Räumen
in einen gemeinsamen 3D-Raum, wie den Raum 12 gemäß Fig. 1B,
unterworfen werden. Es ist zu bemerken, daß in jedem Fall die
Korrekturdaten in einen 2D-Raum rückprojiziert werden müssen,
welcher der Größe des virtuellen Detektors entspricht, d. h.
einen, der groß genug ist, um ein vollständiges Sichtfeld des
ROI im Objekt bei einer einzigen Quellenstellung zu erfassen.
Durch die Erfindung wird ein Verfahren geschaffen, um eine
beträchtliche Reduzierung der Menge an 2D-Korrekturdaten zu
erzielen, die für die Bildrekonstruktion erforderlich sind,
ohne die Genauigkeit des rekonstruierten Bildes wesentlich zu
beeinträchtigen. Daher erzielt die Erfindung eine wesentliche
Reduzierung der Menge der für die Bildrekonstruktion erfor
derlichen Signalverarbeitung bei gleichzeitiger Steigerung
der Geschwindigkeit der Bildrekonstruktion.
Insbesondere wird daran erinnert, daß in Verbindung mit der
obigen Gleichung (6) die Korrekturdaten für jedes aus einer
großen Anzahl von Liniensegmenten L(r,θ) berechnet werden,
und sodann die für jedes der Liniensegmente berechneten
Korrekturdaten unter ihrem Winkel θ in einen 2D-Raum mit
einer dem virtuellen Detektor entsprechenden Größe rückpro
jiziert werden. Die Erfinder haben erkannt, daß für jeden
Winkel e der Umfang der Korrekturdaten und daher der Umfang
des Rückprojektionsergebnisses p(r,θ) vom Winkel θ abhängt,
den L mit der Maskengrenze einschließt. Wie aus einer Unter
suchung der Fig. 10 hervorgeht, ist der Winkel θ umso klei
ner, den L(r,θ) mit der Maskengrenze einschließt, je länger
das Liniensegment ΔL ist, das sich über die Maskengrenze
erstreckt, und je größer der Wert der unter Verwendung dieses
ΔL berechneten Korrekturdaten ist. Umgekehrt, je größer der
Winkel θ ist, den L(r,θ) mit der Maskengrenze einschließt
(d. h. wenn er 90° annähert), desto kürzer ist das Linienseg
ment ΔL, das sich über die Maskengrenze erstreckt, und desto
kleiner ist der Wert der unter Verwendung dieses ΔL berech
neten Korrekturdaten.
Je kleiner oder größer daher der Winkel θ ist, den L(r,θ) mit
der Maskengrenze einschließt, desto größer oder kleiner ist
der Wert der 2D-Korrekturdaten. Dies ist in Fig. 11 graphisch
dargestellt, wobei 1100 eine beispielhafte Maskengrenze
angibt, 1102 eine beispielhafte ΔL(r,θ)-Wellenform des
"Wertes der Korrekturdaten" angibt, wobei die Winkel θ, die
L(r,θ) mit der Maskengrenze einschließen, verhältnismäßig
klein sind (wie aus dem angegebenen Winkel hervorgeht, wel
chen die Rückprojektions-Richtungspfeile 1104 mit der Maske
1100 einschließen), und 1106 eine beispielhafte ΔL(r,θ)-Wel
lenform des "Wertes der Korrekturdaten" angibt, wobei die
Winkel θ, die L(r,θ) mit der Maskengrenze einschließt, ver
hältnismäßig groß sind, d. h. nahe 90° (wie aus dem angezeig
ten Winkel hervorgeht, den die Rückprojektions-Richtungspfei
le 1108 mit der Maske 1100 einschließt).
Es ist ersichtlich, daß die Größe von ΔL(r,θ) in denjenigen
Richtungen (θ) unter oder nahe einem rechten Winkel zur
Maskengrenze und in den Richtungen parallel zur Maskengrenze
niedrig ist. Bei einem typischen Konusbündel-CT-Abbildungs
system stehen die Maskengrenzen gewöhnlich unter einem klei
nen Winkel zur x-Achse für eine typische Spiralsteigung.
Infolgedessen ist die Größe von ΔL(r,θ) hoch für θ unter
kleinen Winkeln zur x-Achse und dementsprechend zu den Mas
kengrenzen (wie durch die ΔL-Wellenform 1102 gezeigt) und
niedrig für θ unter oder nahe einem rechten Winkel zur Mas
kengrenze (wie durch die ΔL-Wellenform 1106 gezeigt).
Daher stammen die dominierenden Beiträge zur den 2D-Korrek
turdaten von L = Werten bei einem kleinen Winkel θ zur x-Ach
se (wie durch die ΔL-Wellenform 1102 gezeigt). Wie jedoch
aus einer Untersuchung der Fig. 11 hervorgeht, wird der Wert
des Rückprojektionsergebnisses p(r,θ) nahe dem oberen und
unteren Rand des 2D-Korrekturdatenraums (x, y) aus der Rück
projektion bei kleinen Winkeln θ zur y-Achse gebildet. Da die
Werte für die ΔL-Wellenform 1106 bei diesen Winkeln eine
verhältnismäßig kleine Größe haben, hat sie auch das Rückpro
jektionsergebnis p(r,θ), d. h. die 2D-Korrekturdaten. So sind
die Werte nahe dem oberen und unteren Rand des 2D-Korrektur
datenraums (x, y) in ihrer Größe sehr niedrig. Dementsprechend
fällt die Größe der 2D-Korrekturdaten ziemlich scharf in
y-Richtung weg vom maskierten Bereich ab. Die Schärfe des
Abfalls im Beitrag zu den 2D-Korrekturdaten ist in Fig. 12
dargestellt, die eine Aufzeichnung der Funktion tgθ ist und
eine Annäherung der Änderungen von ΔL(r,0) als Funktion des
Winkels θ darstellt, wenn die Maskengrenze als horizontale
Linie angenommen wird.
Aufgrund des Obigen ergeben sich zwei Folgen:
- 1. Die 2D-Korrekturdaten können in einer sehr guten Annähe rung erzeugt werden, indem nur diese p(r,θ) verwendet werden, die an Überschneidungen mit der x-Achse unter einem kleinen Winkel liegen, und
- 2. beim Durchführen des 3D-Rückprojektionsschrittes kann anstatt des Erzeugens und Rückprojizierens der 2D-Korrek turdaten von einem 2D-Raum entsprechend der Größe des virtuellen Detektors als Konsequenz der obigen Folge (1) der 2D-Raum außerhalb oder gerade etwas jenseits der Größe des tatsächlichen Detektors beschnitten werden, welcher den maskierten Bereich enthält, ohne irgendeinen wesentlichen Verlust an 2D-Korrekturdaten, und dadurch ohne jede bedeutende Wirkung auf die Genauigkeit der Bildrekonstruktion.
So kann entsprechend den Grundgedanken der Erfindung die für
das Erzeugen und sodann 3D-Rückprojizieren der 2D-Korrektur
daten erforderliche Signalverarbeitung vom Erzeugen und
sodann Verarbeiten von Daten, welche den ganzen virtuellen
Detektor überdecken, auf lediglich die Daten reduziert wer
den, welche den tatsächlichen Detektor überdecken, plus
einem Streifen von Daten am oberen und unteren Rand des
tatsächlichen Detektors. Die Größe des oberen und unteren
Streifens ist einstellbar in Abhängigkeit vom gewünschten
Genauigkeitsgrad der endgültigen Bildrekonstruktion. Es wird
angenommen, daß mit der vorliegenden Erfindung beispielsweise
durch Reduzieren der vertikalen Höhe eines virtuellen Detek
tors von 1000 Pixel mal 1000 Pixel von 1000 Pixels auf 600
Pixels eine Verringerung der Signalverarbeitung um 40% und
infolgedessen der Bildrekonstruktionsgeschwindigkeit erzielt
werden kann, wobei nur ein 5%iger Abfall des Grades der
Bildrekonstruktionsgenauigkeit auftritt.
Bei einer bevorzugten Ausführungsform der Erfindung gibt bei
Betrieb der Abbildungsvorrichtung der Benutzer dem Computer
206 (unter Verwendung einer nicht gezeigten Tastatur) den
gewünschten Genauigkeitsgrad des rekonstruierten Bildes (oder
entsprechend eine gewünschte Rekonstruktionsgeschwindigkeit)
ein, und darauf basierend bestimmt der Computer während des
Bildrekonstruktionsverfahrens die entsprechende Höhe des
virtuellen Detektors, der für die 2D-Rückprojektion zu ver
wenden ist, um die 2D-Korrekturdaten zu erzeugen. Wenn daher
der Benutzer den höchsten Genauigkeitsgrad wählt, setzt der
Computer 206 eine Höhe für den virtuellen Detektor fest, die
zur Überdeckung des ganzen ROI ausreicht, wenn der Benutzer
den niedrigsten Genauigkeitsgrad wählt, setzt der Computer
206 eine Höhe für den virtuellen Detektor fest, die der Höhe
des tatsächlichen Detektors entspricht, und für mittlere
Genauigkeitsgrade werden entsprechend mittlere Höhen für den
virtuellen Detektor gewählt.
Im Einklang mit der obigen Folge (1) bei weiterer Betrachtung
der Fig. 11 ist ersichtlich, daß statt Einstellung der Höhe
des virtuellen Detektors als Ausgleich zwischen aufwendiger
Signalverarbeitung und einem vom Benutzer bestimmten gewün
schten Grad an Rekonstruktionsgenauigkeit oder -geschwindig
keit das gleiche Ergebnis auch erzielt werden kann, indem die
Berechnung der Korrekturdaten auf einen vorbestimmten be
grenzten Bereich von Winkeln (θ) begrenzt wird, der sowohl
der Berechnung der ΔL(r,θ)-Daten sowie deren 2D-Rückprojek
tion in den virtuellen Detektorraum zugeordnet ist. Dies
führt zu beträchtlichen Einsparungen der Signalverarbeitung
zum Berechnen der ΔL(r,θ)-Korrekturdaten sowie zu beträcht
lichen Einsparungen in der Signalverarbeitung, die für die
2D- und sodann 3D-Rückprojektion dieser Korrekturdaten erfor
derlich ist. Insbesondere kann man durch Begrenzung des
Winkelbereichs zur Berechnung der ΔL(r,θ)-Daten auf einen
vom Benutzer bestimmten Bereich, z. B. 0-20 Grad mit der
x-Achse (dem ungefähren Winkelbereich, der in Wellenform 1102
in Fig. 11 dargestellt ist), und sodann Begrenzen des 2D-Rück
projektionswinkels dieser begrenzten Datenmenge auf den
gleichen vom Benutzer bestimmten Winkelbereich eine beträcht
liche Einsparung an Signalverarbeitung (und eine entsprechen
de Steigerung der Geschwindigkeit der Bildrekonstruktion)
erzielen, während man noch eine wesentliche Menge an 2D-Kor
rekturdaten erhält und daher einen verhältnismäßig unbedeu
tenden Verlust der Rekonstruktionsgenauigkeit erleidet. Es
wird bemerkt, daß als Folge der Verwendung eines begrenzten
Winkelbereiches die 2D-Korrekturdaten im 2D-Detektorraum
gerade außerhalb der Maskengrenzen konzentriert wird. Dement
sprechend begrenzt, d. h. reduziert, der Computer 206 während
der 3D-Rückprojektion die Größe des virtuellen Detektors zur
Größe des tatsächlichen Detektors hin um einen Betrag, der
vergleichbar ist mit dem erwarteten Grad der Konzentration
der 2D-Korrekturdaten. Als Folge verwendet während des Bild
rekonstruktionsvorgangs der Computer 206 vorzugsweise eine
Kombination beider obiger Verfahren, um die Signalverarbei
tung zu vereinfachen und zu beschleunigen, während noch ein
sehr hoher gewünschter Grad der Bildrekonstruktionsgenauig
keit erzielt wird.
So ist hier ein neues Verfahren und eine neue Vorrichtung zum
Steuern der Genauigkeit der Bildrekonstruktion in einer
Konusbündel-CT-Abbildungsvorrichtung mit Verwendung einer
vereinfachten 3D-Rückprojektions-Bildrekonstruktion gezeigt
und beschrieben worden. Statt der Angabe eines begrenzten
Winkelbereichs kann der Benutzer, wie bei der erstgenannten
bevorzugten Ausführungsform einen gewünschten Genauigkeits
grad angeben, und sodann stellt der Computer 206 die Bildre
konstruktionsverarbeitung durch Verwendung eines vorbestimm
ten begrenzten Winkelbereichs und/oder Größen des virtuellen
Detektors ein, die so angepaßt sind, daß sie den gewünschten
Grad der Bildrekonstruktionsgenauigkeit erzielen. Ferner kann
der Grundgedanke der Erfindung, wie die adaptive Begrenzung
des Bereichs von Winkeln θ, bezogen auf die Erzeugung und
sodann 2D-Rückprojektion der Korrekturdaten ganz oder teil
weise in die Erzeugung der "Pixelausbreitungs-Funktionstabel
le" derart eingebaut werden, daß beispielsweise Pixelausbrei
tungs-Funktionstabellen, welche unterschiedliche Grade des
Ausgleichs zwischen Bildrekonstruktionsgeschwindigkeit und
-genauigkeit darstellen, vorberechnet und gespeichert werden
für die Verwendung während des Betriebs des Abbildungs
systems.
Claims (34)
1. Verfahren zum dreidimensionalen (3D) computerisierten
tomographischen (CT) Abbilden eines interessierenden
Bereiches (ROI) in einem Objekt, gekennzeichnet durch:
Erfassen einer Anzahl von Sätzen von 2D-Konusbündel projektionsdaten durch Bestrahlung des Objekts mit Energie aus einer Konusbündelquelle, die gegen einen 2D-Detektor bei einer entsprechenden Anzahl von Abtast bahn-Quellenstellungen, die um das Objekt angeordnet sind, gerichtet wird;
Anwenden einer Maske auf jeden Satz der 2D-Konusbün del-Projektionsdaten zur Bildung einer entsprechenden Anzahl von maskierten 2D-Datensätzen;
Verarbeiten der 2D-Konusbündel-Projektionsdaten in nerhalb der Maskengrenzen jedes maskierten 2D-Daten satzes, um eine entsprechende Anzahl von verarbeiteten 2D-Datensätzen zu erzeugen, wobei jeder verarbeitete 2D-Datensatz einer Berechnung einer ersten Schätzung von Radonderivat-Daten entspricht, die für einen gegebenen Satz der 2D-Konusbündel-Projektionsdaten bestimmt sind;
adaptives Erzeugen einer vorbestimmten begrenzten Menge von 2D-Korrekturdaten für jede der ersten Schät zungen der Radonderivat-Daten; und
Kombinieren jedes verarbeiteten 2D-Datensatzes und der dafür adaptiv entwickelten 2D-Korrekturdaten in einer gewichteten 3D-Rückprojektionsweise in einen gemeinsamen 3D-Raum und dadurch Rekonstruieren in dem 3D-Raum eines 3D-Bildes des ROI im Objekt.
Erfassen einer Anzahl von Sätzen von 2D-Konusbündel projektionsdaten durch Bestrahlung des Objekts mit Energie aus einer Konusbündelquelle, die gegen einen 2D-Detektor bei einer entsprechenden Anzahl von Abtast bahn-Quellenstellungen, die um das Objekt angeordnet sind, gerichtet wird;
Anwenden einer Maske auf jeden Satz der 2D-Konusbün del-Projektionsdaten zur Bildung einer entsprechenden Anzahl von maskierten 2D-Datensätzen;
Verarbeiten der 2D-Konusbündel-Projektionsdaten in nerhalb der Maskengrenzen jedes maskierten 2D-Daten satzes, um eine entsprechende Anzahl von verarbeiteten 2D-Datensätzen zu erzeugen, wobei jeder verarbeitete 2D-Datensatz einer Berechnung einer ersten Schätzung von Radonderivat-Daten entspricht, die für einen gegebenen Satz der 2D-Konusbündel-Projektionsdaten bestimmt sind;
adaptives Erzeugen einer vorbestimmten begrenzten Menge von 2D-Korrekturdaten für jede der ersten Schät zungen der Radonderivat-Daten; und
Kombinieren jedes verarbeiteten 2D-Datensatzes und der dafür adaptiv entwickelten 2D-Korrekturdaten in einer gewichteten 3D-Rückprojektionsweise in einen gemeinsamen 3D-Raum und dadurch Rekonstruieren in dem 3D-Raum eines 3D-Bildes des ROI im Objekt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
das Verarbeiten der 2D-Konusbündel-Projektionsdaten
innerhalb der Maskengrenzen eine Feldkamp-Rampenfilte
rung der Daten längs einer Anzahl von darin gebildeten
parallelen Linien umfaßt.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeich
net, daß die geeignete Anpassung der vorbestimmten
begrenzten Menge von 2D-Korrekturdaten, die erzeugt
werden, auf einem gewünschten Genauigkeitsgrad der
Bildrekonstruktion oder einer gewünschten Bildrekon
struktionsgeschwindigkeit basiert.
4. Verfahren nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, daß die Erzeugung der 2D-Korrek
turdaten eine adaptive Verarbeitung von Teilen des
gegebenen Satzes von 2D-Konusbündel-Projektionsdaten
enthält, die Grenzen der Maske in einem entsprechenden
der maskierten 2D-Datensätze liegen.
5. Verfahren nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, daß der Verarbeitungsschritt dem
Bestimmen von Linienintegralderivaten für die 2D-Konus
bündel Projektionsdaten in den maskierten 2D-Datensätzen
entspricht, die längs einer Anzahl von Liniensegmenten
L(r,θ) liegen, deren Endpunkte durch die Maske in jedem
der maskierten 2D-Datensätze festgelegt sind.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß
die Erzeugung der 2D-Korrekturdaten die Berechnung von
ΔL(r,θ)-Derivatdaten umfaßt, welche der Differenz
zwischen den für Paare von Liniensegmenten ΔL(r,θ)
berechneten Linienintegralen entsprechen, die nahe der
oberen und unteren Grenze jeder Maske liegen, wobei die
Paare von Liniensegmenten ΔL(r,θ) aus einer gleichen
bzw. entgegengesetzen orthogonalen Verschiebung der
Liniensegmente L(r,θ) resultieren und sich außerhalb
bzw. innerhalb der oberen und unteren Grenze der Maske
erstrecken.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß
die Erzeugung der 2D-Korrekturdaten die Rückprojektion
der ΔL(r,θ)-Derivatdaten in einen 2D-Raum längs einer
entsprechenden Rückprojektionsrichtung (θ) umfaßt.
8. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß
die Erzeugung der 2D-Korrekturdaten die Verarbeitung
eines geeignet begrenzten Bereichs von Winkeln (θ) für
die berechneten ΔL(r,θ)-Derivatdaten umfaßt, wobei die
geeignete Anpassung dieses Bereiches auf dem gewünschten
Genauigkeitsgrad der Bildrekonstruktion oder auf einer
gewünschten Bildrekonstruktionsgeschwindigkeit beruht.
9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß
die Rückprojektion der ΔL(r,θ)-Derivatdaten längs eines
geeignet begrenzten Bereiches von Rückprojektionsrich
tungen (θ) erfolgt, wobei die geeignete Anpassung des
begrenzten Bereiches auf einem gewünschten Genauigkeits
grad der Bildrekonstruktion oder einer gewünschten
Bildrekonstruktionsgeschwindigkeit beruht.
10. Verfahren nach einem der Ansprüche 6 bis 9, dadurch
gekennzeichnet, daß die Erzeugung der 2D-Korrekturdaten
das Rückprojizieren der ΔL(r,θ)-Derivatdaten in einen
2D-Raum mit einer Größe umfaßt, die geeignet bestimmt
wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
die geeignete Anpassung der Größenbestimmung während der
Rückprojektion der ΔL(r,θ)-Derivatdaten auf einem
gewünschten Genauigkeitsgrad der Bildrekonstruktion oder
einer gewünschten Bildrekonstruktionsgeschwindigkeit
beruht.
12. Verfahren nach einem der Ansprüche 4 bis 11, dadurch
gekennzeichnet, daß die Erzeugung der 2D-Korrekturdaten
das Multiplizieren von Teilen der 2D-Konusbündel-Projek
tionsdaten umfaßt, die die obere und untere Grenze der
Maske schneiden; mit einer Pixelausbreitungs-Funktions
tabelle, die für diese Teile der 2D-Konusbündel-Projek
tionsdaten geeignet vorbestimmt worden ist.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, daß
die geeignete Anpassung der Pixelausbreitungs-Funktions
tabelle auf einem gewünschten Genauigkeitsgrad der
Bildrekonstruktion oder einer gewünschten Bildrekon
struktionsgeschwindigkeit beruht.
14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeich
net, daß die Pixelausbreitungs-Funktionstabelle geeignet
vorbestimmt wird, indem die Linienintegralderivate für
nur einen begrenzten Winkelbereich (8) für Liniensegmen
te ΔL(r,θ) bestimmt wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß
die Pixelausbreitungs-Funktionstabelle durch 2D-Rückpro
jektion der bestimmten Linienintegral-Derivate längs nur
eines begrenzten Winkelbereichs (θ) von Rückprojektions
richtungen geeignet vorbestimmt wird.
16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß
die Pixelausbreitungs-Funktionstabelle durch 2D-Rückpro
jektion der bestimmten Linienintegralderivate in einen
2D-Raum mit einer geeignet bestimmten Größe geeignet
vorbestimmt wird.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß
die geeignete Anpassung der Größe des 2D-Raums auf einem
gewünschten Genauigkeitsgrad der Bildrekonstruktion oder
einer gewünschten Bildrekonstruktionsgeschwindigkeit
beruht.
18. Vorrichtung für die dreidimensionale (3D) computerisier
te tomographische (CT) Abbildung eines interessierenden
Bereichs (ROI) in einem Objekt, gekennzeichnet durch:
eine Konusbündelquelle zum Anwenden von Strahlungs energie auf wenigstens den ROI des Objekts;
einen 2D-Flächendetektor zum Erfassen von Strah lungsenergie;
eine Einrichtung zum Festlegen eines Quellenabtast weges als von der Quelle durchlaufene Abtastbahn;
einen Manipulator, der die Konusbündelquelle, die bezüglich eines Flächendetektors festliegt, wobei sowohl Quelle als auch Detektor bezüglich des Objekts beweglich angeordnet sind, veranlaßt, um den ROI im Objekt herum an einer Anzahl von Quellenstellungen in einer Richtung längs der Abtastbahn abzutasten, um den Flächendetektor zu veranlassen, einen Satz von 2D-Konusbündel-Projek tionsdaten in jeder der Quellenstellungen zu erfassen;
eine Maskiereinrichtung zum Anbringen einer Maske an jedem Satz der 2D-Projektionsdaten, um maskierte Daten sätze zu bilden;
eine Schätzungseinrichtung zum Verarbeiten der 2D- Konusbündel-Projektionsdaten innerhalb der Maskengrenze jedes maskierten 2D-Datensatzes längs einer Anzahl von darin gebildeten parallelen Linien, um eine entsprechen de Anzahl von geschätzten 2D-Datensätzen zu erzeugen, wobei jeder geschätzte 2D-Datensatz einer Berechnung einer ersten Schätzung von Radonderivat-Daten ent spricht, die für einen gegebenen Satz der 2D-Konusbün del-Projektionsdaten bestimmt sind;
eine adaptive Prozessoreinrichtung zur adaptiven Er zeugung einer vorbestimmten begrenzten Menge von 2D-Kor rekturdaten für jede der ersten Schätzungen der Radon derivat-Daten; und
eine 3D-Rückprojektionseinrichtung zum Kombinieren jedes geschätzten 2D-Datensatzes und der dafür adaptiv berechneten 2D-Korrekturdaten in einer gewichteten 3D-Rückprojektionsweise in einen gemeinsamen 3D-Raum und dadurch Rekonstruieren in dem 3D-Raum ein 3D-Bild des ROI im Objekt.
eine Konusbündelquelle zum Anwenden von Strahlungs energie auf wenigstens den ROI des Objekts;
einen 2D-Flächendetektor zum Erfassen von Strah lungsenergie;
eine Einrichtung zum Festlegen eines Quellenabtast weges als von der Quelle durchlaufene Abtastbahn;
einen Manipulator, der die Konusbündelquelle, die bezüglich eines Flächendetektors festliegt, wobei sowohl Quelle als auch Detektor bezüglich des Objekts beweglich angeordnet sind, veranlaßt, um den ROI im Objekt herum an einer Anzahl von Quellenstellungen in einer Richtung längs der Abtastbahn abzutasten, um den Flächendetektor zu veranlassen, einen Satz von 2D-Konusbündel-Projek tionsdaten in jeder der Quellenstellungen zu erfassen;
eine Maskiereinrichtung zum Anbringen einer Maske an jedem Satz der 2D-Projektionsdaten, um maskierte Daten sätze zu bilden;
eine Schätzungseinrichtung zum Verarbeiten der 2D- Konusbündel-Projektionsdaten innerhalb der Maskengrenze jedes maskierten 2D-Datensatzes längs einer Anzahl von darin gebildeten parallelen Linien, um eine entsprechen de Anzahl von geschätzten 2D-Datensätzen zu erzeugen, wobei jeder geschätzte 2D-Datensatz einer Berechnung einer ersten Schätzung von Radonderivat-Daten ent spricht, die für einen gegebenen Satz der 2D-Konusbün del-Projektionsdaten bestimmt sind;
eine adaptive Prozessoreinrichtung zur adaptiven Er zeugung einer vorbestimmten begrenzten Menge von 2D-Kor rekturdaten für jede der ersten Schätzungen der Radon derivat-Daten; und
eine 3D-Rückprojektionseinrichtung zum Kombinieren jedes geschätzten 2D-Datensatzes und der dafür adaptiv berechneten 2D-Korrekturdaten in einer gewichteten 3D-Rückprojektionsweise in einen gemeinsamen 3D-Raum und dadurch Rekonstruieren in dem 3D-Raum ein 3D-Bild des ROI im Objekt.
19. Vorrichtung nach Anspruch 18, dadurch gekennzeichnet,
daß die Schätzeinrichtung einen Rampenfilterprozessor
zum Rampenfiltern der 2D-Konusbündel-Projektionsdaten
innerhalb der Maskengrenzen aller maskierten 2D-Daten
längs einer Anzahl von darin geformten parallelen Linien
umfaßt.
20. Vorrichtung nach Anspruch 18 oder 19, dadurch gekenn
zeichnet, daß der adaptive Prozessor die vorbestimmte
begrenzte Menge von 2D-Korrekturdaten aufgrund eines
gewünschten Genauigkeitsgrades der Bildrekonstruktion
oder einer gewünschten Bildrekonstruktionsgeschwindig
keit erzeugt.
21. Vorrichtung nach einem der Ansprüche 18 bis 20, dadurch
gekennzeichnet, daß der adaptive Prozessor die vorbe
stimmte begrenzte Menge von 2D-Korrekturdaten durch
Verarbeitung von Teilen des gegebenen Satzes von 2D-Ko
nusbündel-Projektionsdaten erzeugt, die nahe den Grenzen
der Maske in einem der maskierten 2D-Datensätze liegen.
22. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet,
daß die Schätzeinrichtung Linienintegralderviate für die
2D-Konusbündel-Projektionsdaten in jedem der maskierten
2D-Datensätze bestimmt, die längs einer Anzahl von
Liniensegmenten L(r,θ) liegen, wobei die Endpunkte jedes
Liniensegments durch die Maske in jedem der maskierten
2D-Datensätze festgelegt sind.
23. Vorrichtung nach Anspruch 22, dadurch gekennzeichnet,
daß der adaptive Prozessor ΔL(r,θ)-Derivatdaten als die
Korrekturdaten berechnet, wobei die Derivatdaten der
Differenz zwischen den Linienintegralen entsprechen, die
für Paare von Liniensegmenten ΔL(r,θ) berechnet sind,
welche nahe der oberen und unteren Grenze jeder Maske
liegen, wobei die Paare von Liniensegmenten ΔL(r,θ) aus
einer gleichen bzw. entgegengesetzten orthogonalen
Verschiebung der Liniensegmente L(r,θ) sich ergeben und
sich außerhalb bzw. innerhalb der oberen und unteren
Grenze der Maske erstrecken.
24. Vorrichtung nach Anspruch 23, dadurch gekennzeichnet,
daß der adaptive Prozessor die ΔL(r,θ)-Derivatdaten in
einen 2D-Raum längs einer entsprechenden Rückprojek
tionsrichtung (θ) rückprojiziert.
25. Vorrichtung nach Anspruch 23 oder 24, dadurch gekenn
zeichnet, daß der adaptive Prozessor einen geeignet
begrenzten Bereich an Winkeln (θ) für die berechneten
ΔL(r,θ)-Derivatdaten verarbeitet, wobei die geeignete
Anpassung dieses Bereichs auf einem gewünschten Genauig
keitsgrad der Bildrekonstruktion oder einer gewünschten
Bildrekonstruktionsgeschwindigkeit beruht.
26. Vorrichtung nach Anspruch 24 oder 25, dadurch gekenn
zeichnet, daß der adaptive Prozessor die ΔL(r,θ)-Deri
vatdaten längs eines geeignet bzw. adaptiv begrenzten
Bereichs von Rückprojektionsrichtungen (θ) rückproji
ziert, wobei die geeignete Anpassung des begrenzten
Bereichs auf einem gewünschten Genauigkeitsgrad der
Bildrekonstruktion oder der gewünschten Bildrekonstruk
tionsgeschwindigkeit beruht.
27. Vorrichtung nach Anspruch 24, dadurch gekennzeichnet,
daß der adaptive Prozessor die ΔL(r,θ)-Derivatdaten in
eine geeignet bestimmte Größe für den 2D-Raum rückpro
jiziert.
28. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet,
daß der adaptive Prozessor die Größe des Raums aufgrund
eines gewünschten Genauigkeitsgrades der Bildrekonstruk
tion oder einer gewünschten Bildrekonstruktionsgeschwin
digkeit bestimmt.
29. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet,
daß der adaptive Prozessor einen Speicher zum Speichern
von Werten für eine Pixelausbreitungs-Funktionstabelle
enthält, die für Teile der 2D-Konusbündel-Projektionsda
ten geeignet vorbestimmt ist, die die obere und untere
Grenze der Maske überschneiden, wobei der adaptive
Prozessor Teile der 2D-Konusbündelprojektion mit den
Werten der Pixelausbreitungs-Funktionstabelle multipli
ziert.
30. Vorrichtung nach Anspruch 29, dadurch gekennzeichnet,
daß die geeignete Anpassung der Pixelausbreitungs-Funk
tionstabelle auf einem gewünschten Genauigkeitsgrad der
Bildrekonstruktion oder einer gewünschten Bildrekon
struktionsgeschwindigkeit beruht.
31. Vorrichtung nach Anspruch 29 oder 30, dadurch gekenn
zeichnet, daß die geeignete Anpassung der Pixelausbrei
tungs-Funktionstabelle durch Bestimmung der Linieninte
gralderivate für nur einen begrenzten Winkelbereich (6)
für Liniensegmente ΔL(r,θ) vorbestimmt ist.
32. Vorrichtung nach Anspruch 31, dadurch gekennzeichnet,
daß die Pixelausbreitungs-Funktionstabelle durch 2D-
Rückprojektion der bestimmten Linienintegralderivate
längs nur eines begrenzten Winkelbereichs (6) von Rück
projektionsrichtungen geeignet vorbestimmt ist.
33. Vorrichtung nach Anspruch 31, dadurch gekennzeichnet,
daß die Pixelausbreitungs-Funktionstabelle durch 2D-
Rückprojektion der bestimmten Linienintegralderivate in
einen 2D-Raum mit einer geeignet bestimmten Größe geeig
net vorbestimmt ist.
34. Vorrichtung nach Anspruch 31, dadurch gekennzeichnet,
daß die Pixelausbreitungs-Funktionstabelle die Größe des
2D-Raums aufgrund eines gewünschten Genauigkeitsgrades
der Bildrekonstruktion oder einer gewünschten Bildrekon
struktionsgeschwindigkeit geeignet vorbestimmt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/162,303 US6084937A (en) | 1998-07-27 | 1998-09-28 | Adaptive mask boundary correction in a cone beam imaging system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19945606A1 true DE19945606A1 (de) | 2000-03-30 |
Family
ID=22585063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19945606A Withdrawn DE19945606A1 (de) | 1998-09-28 | 1999-09-23 | Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts |
Country Status (3)
Country | Link |
---|---|
US (1) | US6084937A (de) |
JP (1) | JP2000102530A (de) |
DE (1) | DE19945606A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10248766A1 (de) * | 2002-10-18 | 2004-07-15 | Siemens Ag | Verfahren zur Bilderstellung für einen mehrzelligen Spiral-Computertomographen und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens |
CN115619907A (zh) * | 2022-12-15 | 2023-01-17 | 航天宏图信息技术股份有限公司 | 一种自适应建筑物直角化方法和装置 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6687393B1 (en) * | 1999-07-16 | 2004-02-03 | General Electric Company | Efficient methods and apparatus for resampling three dimensional datasets |
US6292525B1 (en) * | 1999-09-30 | 2001-09-18 | Siemens Corporate Research, Inc. | Use of Hilbert transforms to simplify image reconstruction in a spiral scan cone beam CT imaging system |
US6330298B1 (en) * | 2000-10-17 | 2001-12-11 | Siemens Corporate Research, Inc. | Method and apparatus for simplifying the correction of image inaccuracies caused by processing of masked cone beam projection data |
US6324245B1 (en) * | 2000-10-17 | 2001-11-27 | Siemens Corporation Research, Inc. | Method and apparatus for identifying and correcting image inaccuracies caused by simplified processing of masked cone beam projection data |
US6574297B2 (en) * | 2001-10-30 | 2003-06-03 | Siemens Corporate Research, Inc. | System and method for image reconstruction in a cone beam imaging system |
DE10248770A1 (de) * | 2002-10-18 | 2004-05-06 | Siemens Ag | Verfahren zur Bilderstellung für einen mehrzeiligen Spiral-Computertomographen mit 3D-Rekonstruktion und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens |
FR2856821B1 (fr) * | 2003-06-27 | 2005-08-05 | Commissariat Energie Atomique | Procede de reconstruction d'une image tomographique par une methode analytique comprenant une modelisation amelioree du mouvement de l'objet. |
US7403587B2 (en) * | 2003-09-05 | 2008-07-22 | Koninklijke Philips Electronics N.V. | Computer tomography method using a cone-shaped bundle of rays |
US7539281B2 (en) * | 2004-10-15 | 2009-05-26 | General Electric Company | Methods and apparatus for reconstruction in helical cone beam volumetric CT |
WO2006073584A2 (en) * | 2004-11-24 | 2006-07-13 | Wisconsin Alumni Research Foundation | Cone-beam filtered backprojection image reconstruction method for short trajectories |
US7379525B2 (en) * | 2004-12-15 | 2008-05-27 | General Electric Company | Method and system for efficient helical cone-beam reconstruction |
US7269244B2 (en) * | 2006-01-25 | 2007-09-11 | General Electric Company | Methods and apparatus for generating thick images in cone beam volumetric CT |
US11228753B1 (en) | 2006-12-28 | 2022-01-18 | Robert Edwin Douglas | Method and apparatus for performing stereoscopic zooming on a head display unit |
US11275242B1 (en) | 2006-12-28 | 2022-03-15 | Tipping Point Medical Images, Llc | Method and apparatus for performing stereoscopic rotation of a volume on a head display unit |
US11315307B1 (en) | 2006-12-28 | 2022-04-26 | Tipping Point Medical Images, Llc | Method and apparatus for performing rotating viewpoints using a head display unit |
US10795457B2 (en) | 2006-12-28 | 2020-10-06 | D3D Technologies, Inc. | Interactive 3D cursor |
CN101158653B (zh) * | 2007-11-16 | 2010-12-15 | 西北工业大学 | 一种锥束ct系统的散射测定和校正方法 |
US9091628B2 (en) | 2012-12-21 | 2015-07-28 | L-3 Communications Security And Detection Systems, Inc. | 3D mapping with two orthogonal imaging views |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5390226A (en) * | 1992-07-02 | 1995-02-14 | General Electric Company | Method and apparatus for pre-processing cone beam projection data for exact three dimensional computer tomographic image reconstruction of a portion of an object |
US5390111A (en) * | 1993-11-12 | 1995-02-14 | General Electric Company | Method and system for processing cone beam data for reconstructing free of boundary-induced artifacts a three dimensional computerized tomography image |
US5504792A (en) * | 1994-12-27 | 1996-04-02 | General Electric Company | Method and system for masking cone beam projection data generated from either a region of interest helical scan or a helical scan |
US5878103A (en) * | 1997-06-30 | 1999-03-02 | Siemens Corporate Research, Inc. | Adaptive detector masking for speed-up of cone beam reconstruction |
US6018561A (en) * | 1998-07-27 | 2000-01-25 | Siemens Corporate Research, Inc. | Mask boundary correction in a cone beam imaging system using simplified filtered backprojection image reconstruction |
-
1998
- 1998-09-28 US US09/162,303 patent/US6084937A/en not_active Expired - Lifetime
-
1999
- 1999-09-23 DE DE19945606A patent/DE19945606A1/de not_active Withdrawn
- 1999-09-28 JP JP11275099A patent/JP2000102530A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10248766A1 (de) * | 2002-10-18 | 2004-07-15 | Siemens Ag | Verfahren zur Bilderstellung für einen mehrzelligen Spiral-Computertomographen und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens |
DE10248766B4 (de) * | 2002-10-18 | 2005-02-10 | Siemens Ag | Verfahren zur Bilderstellung für einen mehrzeiligen Spiral-Computertomographen und Computer-Tomographie-Gerät zur Durchführung dieses Verfahrens |
CN115619907A (zh) * | 2022-12-15 | 2023-01-17 | 航天宏图信息技术股份有限公司 | 一种自适应建筑物直角化方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US6084937A (en) | 2000-07-04 |
JP2000102530A (ja) | 2000-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19945606A1 (de) | Verfahren und Vorrichtung zur dreidimensionalen (3D) computerisierten tomographischen (CT) Abbildung eines interessierenden Bereiches (ROI) eines Objekts | |
DE19945636A1 (de) | Verfahren und Vorrichtung zum dreidimensionalen CT-Abbilden eines interessierenden Bereichs in einem Objekt | |
DE2804158C2 (de) | ||
DE69005492T2 (de) | Verfahren zur Erfassung von radiologischen Daten und zur Rekonstruktion des Aufbaus eines bestrahlten Körpers. | |
DE19934992A1 (de) | Masken-Grenzkorrektur bei einem Kegelstrahl-Bildsystem unter Anwendung einer vereinfachten Bildrekonstruktion mit gefilterter Rückprojektion | |
EP0990892B1 (de) | Computertomographie-Verfahren mit kegelförmigen Strahlenbündel, und Computertomograph | |
DE69329514T2 (de) | Verfahren und Gerät zum Vorverarbeiten von Kegelstrahlprojektionsdaten zur exakten dreidimensionalen CT-Bildrekonstruktion eines Teilobjekts | |
DE69810271T2 (de) | Rechnergestützte abtast-tomographie mit veränderlicher stromstärke | |
DE69218839T2 (de) | Tomographische Bilderzeugung mittels Schrägstrahlen | |
DE69033923T2 (de) | Spiralabtastrechnertomographie | |
DE10211581A1 (de) | Verfahren und Vorrichtung unter Verwendung eines verallgemeinerten spiralenförmigen Interpolationsalgorithmus | |
DE19856026A1 (de) | Verfahren und Vorrichtung zur dreidimensionalen Abbildung mit computerisierter Tomographie | |
DE10164287A1 (de) | Computertomographiegewichtung (CT-Gewichtung) zur Bildrekonstruktion mit hoher Qualität | |
DE19929646A1 (de) | Verfahren und Vorrichtung zur Bildrekonstruktion in einem mit Kegelstrahl arbeitenden Bildgabesystem | |
DE102007039573A1 (de) | Verfahren zur analytischen Rekonstruktion für eine Mehrfachquellen-Inversgeometrie-CT | |
DE19826043A1 (de) | Verfahren und Vorrichtung zum Abtasten und Datenerfasen für dreidimensionale computerisierte tomographische Abbildung | |
DE3546233A1 (de) | Verfahren und anordnung zum korrigieren einer verschiebung des drehungsmittelpunktes eines computertomographiesystems mit rotierendem faecherbuendel | |
DE2804157A1 (de) | Verfahren und vorrichtung fuer die tomographie | |
EP1150251B1 (de) | Computertomographie-Verfahren | |
DE69821082T2 (de) | Abbildungsvorrichtung und Verfahren für Computertomographie | |
DE4424284A1 (de) | Verfahren zum Verringern von Bildartefakten in einem tomographischen Bild | |
DE102007021023A1 (de) | Verfahren zur Bilderstellung für die Spiral-CT mit veränderlichem Pitch und CT-Gerät zur Durchführung des Verfahrens | |
DE69932390T2 (de) | Verfahren und Vorrichtung zur Bildrekonstruktion | |
DE3824326A1 (de) | Verfahren und einrichtung zum rekonstruieren in ct-abtastern unter verwendung divergierender strahlen | |
DE69033922T2 (de) | Verkleinerung von Patientenversetzungsartefakt in tomographischer Bildverarbeitung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8120 | Willingness to grant licences paragraph 23 | ||
8139 | Disposal/non-payment of the annual fee |