WO2007093066A1 - Computertomographische bildrekonstruktion - Google Patents

Computertomographische bildrekonstruktion Download PDF

Info

Publication number
WO2007093066A1
WO2007093066A1 PCT/CH2007/000048 CH2007000048W WO2007093066A1 WO 2007093066 A1 WO2007093066 A1 WO 2007093066A1 CH 2007000048 W CH2007000048 W CH 2007000048W WO 2007093066 A1 WO2007093066 A1 WO 2007093066A1
Authority
WO
WIPO (PCT)
Prior art keywords
density
image
function
values
model
Prior art date
Application number
PCT/CH2007/000048
Other languages
English (en)
French (fr)
Inventor
Raphael Thierry
Original Assignee
Eidgenössische Materialprüfungs- Und Forschungsanstalt (Empa)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eidgenössische Materialprüfungs- Und Forschungsanstalt (Empa) filed Critical Eidgenössische Materialprüfungs- Und Forschungsanstalt (Empa)
Priority to EP07701848A priority Critical patent/EP1984897A1/de
Publication of WO2007093066A1 publication Critical patent/WO2007093066A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/408Dual energy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/424Iterative

Definitions

  • the invention relates to the field of computed tomography, in particular to a method, a data processing system and a computer program for image reconstruction according to the preamble of the corresponding independent claims.
  • WO 02/067201 For image reconstruction, a statistical optimization algorithm is used, which explicitly takes into account the spectrum of the polyenergetic radiation source used. Two statistical methods using a Poisson model are presented. In both cases, ordered subsets optimization is accelerated, with sums over the angle index of a sinogram replaced by a series of sums over Wmkel subsets of the sinogram. Before the iterative optimization, a single image is first reconstructed. One will prefer FBP (filtered back projection), because this type of algorithm reduces the reconstruction time [7]. Then, a segmentation of this image is performed, ie an assignment of each pixel made to a particular category of material. This assignment remains fixed over several iteration steps. The mapping can be adjusted if the optimization does not converge as desired.
  • WO 02/067201 is hereby incorporated by reference in its entirety in particular the basic part with reference to the figures 1, 2, 3, 8 and 9, as well as the description of the statistical image reconstruction.
  • the presented methods are designed for medical applications. Therefore, it is assumed that the examined object consists of up to 90% water, and that the tissue density varies between 0.9 and 1.9. This allows simplifying assumptions, which can not be transferred to other applications.
  • the method requires that the entire image data of the projection matrix be permanently available in the main memory of a computer.
  • picture element therefore stands, depending on the context, for pixels or for voxels.
  • slice image optionally refers to a two-dimensional or spatial representation of density values. It is an object of the invention to provide a method, a data processing system and a computer progranini for image reconstruction of the type mentioned, which overcomes the disadvantages mentioned above.
  • the method for reconstructing an X-ray tomogram for producing a sectional image from raw image data which has been generated by a polyenergetic radiation source thus comprises the following steps:
  • the raw image data can typically be represented as sinograms.
  • a known method such as the filtered back projection (FBP) is used.
  • FBP filtered back projection
  • the step "providing a share model” preferably comprises the following steps, which are usually automatic, i. performed without user interaction: • Reconstruction of a first cross-sectional image based on the raw image data;
  • the density histogram can also be determined directly from the histogram of the values of the attenuation image without explicitly calculating a density image.
  • the method described is particularly suitable for technical applications, or medical CT, for example when investigating non-overlapping objects which are substantially homogeneous with discrete density values.
  • the method is basically also suitable for the medical sector and for objects with overlapping or mixed proportions.
  • the method can be advantageously used in the medical field to examine tissues with metallic or other foreign bodies.
  • information about the composition and the internal structure of the examined objects is used a priori for the image reconstruction.
  • a starting layer may be used instead of or in combination with the first segmented image. It shows that this can also accelerate the convergence of the iteration process.
  • An apparatus for reconstructing an X-ray tomogram has means for carrying out the described method.
  • the device is a data processing system and the means comprise storage means with computer program code means which are stored therein and which describe a computer program, and data processing means for executing the computer program, the execution of the computer program leading to the execution of the method according to the invention.
  • the data processing system may be built into a tomography device, or it may be a separate computer with EuUS output devices, a memory, and a processor. There If the method can be parallelized, a data processing system with several processors operating in parallel can also be used.
  • a computer program for reconstructing an X-ray tomogram can be loaded into an internal memory of a digital data processing unit and has
  • Data processing unit are executed, bring them to carry out the inventive method.
  • a computer program product comprises a data carrier or a computer-readable medium on which the computer program code means are stored.
  • FIG. 1 shows an arrangement when generating an X-ray image
  • FIG. 2 shows an arrangement when generating an X-ray tomogram
  • FIG. 3 shows a weakening in the case of a polychromatic radiation source
  • Figure 4 shows a continuous transition in segmentation of an image into different materials
  • Figure 5 is a sectional view, wherein the different gray levels represent different densities of the picture elements
  • FIG. 6 shows a histogram of this sectional image about the density
  • FIG. 8 shows a one-dimensional function with different surrogate functions:
  • picture element therefore stands, depending on the context, for pixels or for voxels.
  • slice image optionally refers to a two-dimensional or spatial representation of density values.
  • FIG. 1 shows an arrangement when generating an X-ray image.
  • a radiation source 1 sends, as indicated by an arrow, X-rays through an object to be examined 2 against an image sensor or sensor 3. The internal structure of the object 2 is visible on the resulting image.
  • FIG. 2 shows an arrangement when generating an X-ray tomogram.
  • the radiation source 1 and the image recorder 3 are rotatably arranged relative to the object 2.
  • a plurality of images are recorded at different angles of rotation.
  • Further arrangements are shown, for example, in WO 02/067201 in FIGS. 1 to 3 and the associated description.
  • a statistical image reconstruction method for X-ray computed tomography is described.
  • a polyenergetic source beam spectrum is modeled and taken into account in a physical simulation of the measurements. Certain parts of this optimization are described in Amsterdam [2] and Elbakri [3].
  • a composition is calculated from a set of reference materials, that is, a relative proportion of each of these reference materials on the pixel. Therefore, no prior user-guided or automatic pre-segmentation of the image is required.
  • each pixel is assigned to a particular material or class of material, such as bone, air, tissue, metal, alloy, ...
  • the relationship between the density and the composition is represented by a calculation rule, which is also referred to below as a share model.
  • the share model allows image elements in transition regions to be modeled using a mixture of reference materials. Image elements in homogeneous image areas have a predominant portion of a particular material and can be categorized as consisting of that material.
  • the attenuation coefficient is modeled as the product of the density to be determined with the weighted sum of energy-dependent and mass-related attenuation coefficients. This sum is formed by the materials present in the picture element. Weight functions are formed by an analysis of the density histogram of a first reconstructed image as well as from previously known material properties.
  • the method can also work with an adapted displacement model.
  • This "adapted displacement model” is determined from measurements with a variety of conventional materials.
  • a "penalized-likelihood” function is used, and the iteration algorithm for determining the density of the bucket elements is modified according to the share model.
  • the explanation will be made on the basis of two-dimensional examples for the sake of simplicity. The extension to three dimensions is easily possible.
  • the measurements are modeled as independent Poisson distributed random variables (Erdogan [2]) which are disturbed by background noise.
  • the background noise is mainly generated by scattering.
  • the following statistical model is assumed for the measurements:
  • ⁇ (x, y, E) is the unknown location-dependent and energy-dependent attenuation by the object at the location x, y and for the energy E.
  • the integral in the exponent is calculated over the line Li
  • I (E) represents the combined energy dependence of the radiation source and the detector sensitivity.
  • the assumed average scatter is represented by s &.
  • N is the number of individual measuring beams or measuring points.
  • I (E) can be determined for example from calibration measurements with different materials, or by a Monte Carlo simulation.
  • FIG. 3 shows a weakening in a polychromatic radiation source.
  • the wavelength is plotted along the abscissa, the intensity along the ordinate.
  • the uppermost curve 5 shows the spectrum of the radiation source, ie the energy in Dependence of the wavelength.
  • a prefiltered 450 keV source is shown.
  • the middle curve 6 shows the spectrum after 1 cm of aluminum, and the lower curve 7 after 5 cm of aluminum.
  • An object model is formed in the polyeneergetic modeling as follows: The object space is quantized with square pixels (in a three-dimensional model analogous voxels are used). The attenuation is calculated as
  • the attenuation coefficient is determined as the product of the mass-based attenuation coefficient with the density of the material.
  • the attenuation coefficient is equal to the weighted sum of the mass-based attenuation coefficients of the reference materials making up the material in the jth pixel, times the density of the pixel / voxel.
  • the expression for ⁇ j, the unknown energy-dependent attenuation coefficient of the material in the jth pixel is:
  • ⁇ k is the dimensionless fraction of the k-th reference material to the attenuation in the pixel is j
  • ⁇ m k is the known energy-dependent mass-based attenuation coefficient of the-th reference material.
  • the weighting functions ⁇ k can be considered as a generalization of a discrete segmentation operation by a continuous representation. As an illustration of this generalization, FIG. 4 shows a continuous transition in the case of segmentation of an image into different materials. Along the abscissa, any location coordinate of an image is plotted.
  • the ldassische treatment of the beam hardening assumes that each pixel is assigned to a specific material, that is, that a segmentation is a priori. This approach is successful if, at the beginning, a good quality sectional image is available.
  • FBP filtered backprojection
  • other methods may also be used, for example a statistical algorithm assuming monochromatic radiation.
  • the thus reconstructed slice image can also be used as the first slice or initial image for the iterative optimization of the image. For noisy images, however, this approach is very inefficient, because in the segmentation of a large number of Büdmaschinen is classified incorrectly.
  • the approach is in part similar to Elbakri's segmentation-free method [3], except that here the modeling of a material composition is based on a finite number of non-overlapping objects, and the objects are essentially homogeneous and have sharp edges.
  • the Anteüsmodell is formed as follows: It is assumed that an image is generated with an FBP or a statistical algorithm assuming a monochromatic radiation source. Typically, beam hardening effects in the image center will produce smaller attenuation values and streak artifacts will occur.
  • the attenuation coefficients of a material in the j-th pixel correspond to an average over the spectrum of the x-ray tube, ie
  • p j is the density in the j-th pixel. Based on this relationship, a density image can be calculated from the measured image of the attenuation values ⁇ .
  • Attenuation values ⁇ calculated a density image.
  • FIG. 5 shows a sectional image, wherein the different gray levels represent different densities of the picture elements.
  • FIG. 6 shows the resulting density histogram. Each of the peaks in the histogram corresponds to a particular material. Each tip will go in around the tip
  • Gaussian model approximated, for example, a nonlinear
  • the density values in each image element are smaller than the actual density pu of the k th reference material due to the beam hardening.
  • the material fraction ⁇ k of the k th material is set to 100%.
  • the kth material content goes from 1 to 0 and the next material content goes from 0 to 1.
  • the sum of the relative proportions of all materials is always 1, so
  • the proportion of materials is represented in each case by two polynomials of the fourth degree, the ranges between the value zero and 0.5 and between 0.5 and 1 being divided between the two polynomials.
  • the polynomials are chosen such that the value 0.5 results in a continuous transition between the polynomials (the first and second derivatives are equal in the transition point). This is advantageous if the distances between the density values for the values zero, 0.5 and 1 differ greatly.
  • the material composition of each pixel is adjusted by the share model according to its density at each iteration step.
  • iron can be used as a representative of several other metals, or it can be tissue as a mixture of water and bone Subsequently, different tissues such as the heart, lungs, blood etc. can be assigned to different mixing ratios.
  • the line integral for the i-th measurement can be expressed as a scalar product:
  • H ⁇ hj ⁇ is hereinafter referred to as system matrix.
  • the individual elements hy represent the influence of pixel j on measurement i.
  • P is the number of pixels.
  • the matrix H is usually also referred to as a projection matrix or projection operator and determined by a distance-driven algorithm.
  • the distance-driven method is well suited for parallelizable calculations, and requires (in contrast to, for example, a siddon method) only a single storage of the image and the sinogram.
  • the matrix is sparse and can be kept in the working memory of a computer for a small number of measurements.
  • larger quantities of readings such as conical X-rays, Helix scanners or fan-beam devices require several gigabytes to thousands of terabytes, even with efficient storage. Therefore, in X-ray tomography, the line integral is always recalculated "on the fly" without the matrix H being stored.
  • a projection of the matrix is stored, which has corresponding effects on the iterative optimization.
  • the line integral can be reshaped and expressed in the following form:
  • the vector s is often called the effective thickness.
  • a cost function for the polyeneergetic model is introduced for the following reasons: for a well-conditioned matrix H and no-noise measurements, minimizing the negative likelihood function L would yield an ideal result. In reality, these circumstances are not present and a regularization of the problem is necessary. This is done by adding one Cost function (penalty function) reached to the likelihood function: It is considered a pairwise regularization with a regularization term or cost term of the following form:
  • a potential function and Nj is a certain neighborhood of the jth pixel.
  • ⁇ (u) Vl + u 2
  • ⁇ ⁇ p -L ⁇ p) + ⁇ R ⁇ p)
  • is a scalar that controls the relative weight between the data match and the cost function.
  • the goal of the image reconstruction is thus formulated as a minimization of the function ⁇ under certain boundary conditions. These boundary conditions are in particular that negative densities are not permissible and that the user can specify a maximum density.
  • FIG. 8 illustrates this principle for the one-dimensional case: Instead of minimizing ⁇ ( ⁇ ), the equivalent function ⁇ ( ⁇ ; ⁇ n) is minimized in the nth iteration.
  • the replacement function ⁇ 2 has a weaker curvature and is wider than ⁇ l, thus ⁇ 2 leads to a larger step size and to a faster convergence to the local minimum.
  • n denotes the nth iteration, and the following definitions are used:
  • the replacement function is separable because a sum is formed over all pixels P. Thanks to the separability, the calculation of the replacement function can easily be parallelized.
  • the first derivative is determined and set equal to zero in the sense of the Newtonian method. This gives the following rule for updating:
  • n is the curvature of the paraboloidal replacement function.
  • the curvature is chosen to be so large according to the theory of "optimization transfer" that the replacement function is always greater than the function to be approximated, this value being also referred to as "precomputed curvature".
  • the method of the ordered subsets can be used, waiving absolute monotony of the method, see for example [5].
  • subsets of the data 15 are rearranged, which drastically improves the convergence but partly reduces the monotony. Since the statistical methods are too slow in their basic form, such a kind of acceleration is justifiable for practical application.
  • the following three simplifications or approximations are made:
  • Mj is the true i-th measurement
  • Mj (s) is an estimate
  • the computational effort is K forward projections and K backprojections per iteration, where K is the number of different reference materials. So this is equivalent to around 2K FPB runs. Thanks to the third simplification, the curvature can be calculated without saving the system matrix H.
  • M 1 and the gradient V ⁇ Mj can be determined, for example in the form of a conical Surface approximation, (Cardinal and Window [I]) or by interpolation of tabulated values of M j and VJJ-M /.
  • the second variant is particularly advantageous when using more than two materials.
  • an array of precomputed values of M, and the gradient V ⁇ -M / may be used as the basis for interpolation for further values of M, -.
  • the method can be summarized with the following pseudocode.
  • the effort is given as the number of projections or backprojections.
  • the use of ordered subsets is also shown here:

Abstract

Verfahren zur Rekonstruktion eines Röntgenstrahltomogrammes zum Erzeugen eines Schnittbildes ausgehend von Roh-Bilddaten. welche durch eine polyenergetische Strahlungsquelle erzeugt worden sind, mit den folgenden Schlitten: • Bereitstellen eines Anteilmodells, welches den Anteil von mindestens zwei Materialien (Mat. #1... Mat. #3) eines Bildelementes in Funktion der Dichte (ρ) des Bildelelementes bestimmt; • Rekonstruktion eines ersten rekonstruierten Schnittbildes anhand der Roh-Bilddaten; • Iteratives Berechnen von weiteren rekonstruierten Schnittbildern unter Verwendung eines statistischen Optimierungsalgorithmus mit Berücksichtigung des polyenergetischen Spektrums der Strahlungsquelle und unter Verwendung des Anteilmodells.

Description

COMPUTERTOMOGRAPHISCHE BILDREKONSTRUKTION
Die Erfindung bezieht sich auf das Gebiet der Computertomographie, insbesondere auf ein Verfahren, ein Datenverarbeitungssystem und ein Computerprogramm zur Bildrekonstruktion gemäss dem Oberbegriff der entsprechenden unabhängigen Patentansprüche.
STAND DER TECHNIK
Ein derartiges Verfahren ist beispielsweise aus WO 02/067201 bekannt. Zur Bildrekonstruktion wird ein statistischer Optimierungsalgorithmus verwendet, welcher das Spektrum der verwendeten polyenergetischen Strahlungsquelle explizite berücksichtigt. Es werden zwei statistische Verfahren unter Verwendung eines Poisson-Modells vorgestellt. In beiden Fällen wird die Optimierung mittels geordneter Untermengen ("ordered subsets") beschleunigt, wobei Summen über den Winkel-Index eines Sinogramms ersetzt werden durch eine Reihe von Summen über Wmkel-Untermengen des Sinogramms. Vor der iterativen Optimierung wird zuerst ein einzelnes Bild rekonstruiert. Man wird eine FBP (filtered back projection) bevorzugen, weil diese Art von Algorithmen die Rekonstruktionszeit verringert [7]. Dann wird eine Segmentierung dieses Bildes durchgeführt, d.h. eine Zuordnung jedes Bildpunktes zu einer bestimmten Materialkategorie vorgenommen. Diese Zuordnung bleibt über mehrere Iterationsschritte hinweg fest. Die Zuordnung kann angepasst werden, falls die Optimierung nicht wie gewünscht konvergiert. Die genannte WO 02/067201 wird hiermit in ihrer Gesamtheit durch Referenz auf genommen, insbesondere der Grundlagenteil mit Bezug auf die Figuren 1, 2, 3, 8 und 9, sowie die Beschreibung der statistischen Bildrekonstruktion.
Die vorgestellten Verfahren sind auf medizinische Anwendungen ausgelegt. Deshalb wird davon ausgegangen, dass das untersuchte Objekt aus bis zu 90% Wasser besteht, und dass die Gewebedichte zwischen 0.9 und 1.9 variiert. Dies erlaubt vereinfachende Annahmen, welche aber nicht auf andere Anwendungen übertragen werden können.
Ferner verlangt das Verfahren, um den Rechenaufwand in Grenzen zu halten, dass die gesamten Bilddaten der Projektionsmatrix dauernd im Arbeitsspeicher eines Rechners zur Verfügung stehen.
Es zeigt sich ferner, dass dieses und ähnliche Verfahren, insbesondere bei der Verwendung im industriellen Bereich, Bildartefakte erzeugt, welche tatsächliche Bildmerkmale überdecken.
DARSTELLUNG DER ERFINDUNG
Die Terminologie ("Bildpunkt", "Pixel") und die Beispiele sind der Erklärung halber auf zweidimensionale Bilder ausgerichtet. Die Erfindung lässt sich jedoch vom Prinzip her ohne weiteres auf dreidimensionale Darstellungen ("Volumenelemente", "Voxel") anwenden.
Der Begriff "Bildelement" steht deshalb, je nach Zusammenhang, für Pixel oder für Voxel. Analog bezieht sich der Begriff "Schnittbild" wahlweise auf eine zweidimensionale oder eine räumliche Repräsentation von Dichtewerten. Es ist Aufgabe der Erfindung, ein Verfahren, ein Datenverarbeitungssystem und ein Computerprogranini zur Bildrekonstruktion der eingangs genannten Art zu schaffen, welche die oben genannten Nachteile behebt.
Diese Aufgabe lösen ein Verfahren, ein Datenverarbeitungssystem und ein Computerprogramm zur Bildrekonstruktion mit den Merkmalen der entsprechenden unabhängigen Patentansprüche.
Das Verfahren zur Rekonstruktion eines Röntgenstrahltomogrammes zum Erzeugen eines Schnittbildes ausgehend von Roh-Bilddaten, welche durch eine polyenergetische Strahlungsquelle erzeugt worden sind, weist also die folgenden Schritte auf:
• Bereitstellen eines Anteilmodells, welches den Anteil von mindestens zwei Materialien eines Bildelementes in Funktion der Dichte des Bildelelementes bestimmt;
• Rekonstruktion eines ersten rekonstruierten Schnittbildes anhand der Roh- Bilddaten;
• Iteratives Berechnen von weiteren rekonstruierten Schnittbildern unter Verwendung eines statistischen Optimierungsalgorithmus mit Berücksichtigung des polyenergetischen Spektrums der Strahlungsquelle und unter Verwendung des Anteilmodells.
Die Roh-Bilddaten sind typischerweise als Sinogramme darstellbar. Zur Rekonstruktion eines ersten rekonstruierten Schnittbildes als Initialbild für die Iteration wird ein bekanntes Verfahren wie beispielsweise die gefilterte Rückprojektion (filtered back projection, FBP) verwendet. Wenn die Iteration ein vorgegebenes Gütekriterium oder eine maximale Anzahl von Iterationsschritten erreicht, wird das letzte rekonstruierte Schnittbild als endgültiges Bild oder Ergebnisbild ausgegeben.
Dank der Verwendung des Anteilmodells in der iterativen Optimierung wird insbesondere vor den iterativen Berechnungen keine Segmentierung durchgeführt. Es besteht also keine festgelegte Zuordnung von Bildelementen zu einzelnen Materialien, die über mehrere Iterationen hinweg beibehalten wird, wie beispielsweise in der eingangs zitierten WO 02/067201. Stattdessen kann ein Bildelement variierende Anteile verschiedener Materialen aufweisen, und werden diese Anteile bei jeder Iteration anhand der Dichte des Bildelementes neu bestimmt.
Der Schritt "Bereitstellen eines Anteilmodells", weist vorzugsweise die folgenden Schritte auf, welche in der Regel automatisch d.h. ohne Benutzerinteraktion durchgeführt werden: • Rekonstruktion eines ersten Schnittbildes anhand der Roh-Bilddaten;
• Berechnen eines Dichtebildes aus dem Abschwächungsbild entsprechend der Roh-Bilddaten;
• Erstellen eines Dichtehistogramms des ersten Schnittbildes;
• Identifizieren von Extrema des Histogramms; und • Bestimmen des Anteilmodells als Funktion der Extrema.
Das Dichtehistogramm kann auch direkt aus dem Histogramm der Werte des Abschwächungsbildes bestimmt werden, ohne dass explizite ein Dichtebild berechnet wird. Das beschriebene Verfahren eignet sich insbesondere für technische Anwendungen, oder medizinische CT, beispielsweise bei der Untersuchung von nichtüberlappenden Objekten welche im wesentlichen homogen mit diskreten Dichtewerten sind. Das Verfahren eignet sich grundsätzlich aber auch für den medizinischen Bereich und für Objekte mit überlappenden respektive gemischten Anteilen. Beispielsweise kann das Verfahren im medizinischen Bereich vorteilhaft eingesetzt werden, um Gewebe mit metallischen oder anderen Fremdkörpern zu untersuchen.
In einer bevorzugten Ausführungsform der Erfindung werden die Werte einer
Systemmatrix
Figure imgf000005_0001
zur Repräsentation des Einflusses eines Bildelementes (pixel oder voxel) j auf eine Messung i nicht in ihrer Gesamtheit gespeichert. Insbesondere werden diese Werte nicht im Arbeitsspeicher eines Computers gespeichert. Stattdessen werden jeweils für die i Messungen korrespondierende Werte γt als Summe der Werte von /z,y über alle j Bildelemente berechnet und gespeichert. Diese Werte YJ werden beim iterativen Berechnen von weiteren rekonstruierten Schnittbildern verwendet. Dabei wird jeweils der Wert von H^y1 anstelle von h* verwendet.
Die Anwendung ist damit auch mit grossen Datensätzen möglich, wie sie bei der Verwendung von Fächerstrahlen, Konusstrahlen, Helix-Scans (fan-beam, cone-beam, helical CT) auftreten. Bei solchen Datenmengen kann nicht, wie für herkömmliche Verfahren notwendig, eine Projektionsmatrix im Arbeitsspeicher gehalten werden.
In einer weiteren bevorzugten Ausführungsform der Erfindung werden für die Bildrekonstruktion a priori Informationen über die Zusammensetzung und die interne Struktur der untersuchten Objekte verwendet, die von anderen Messmethoden oder Informationsquellen stammen. Beispielsweise kann mit optischen Messungen der Oberfläche oder aus CAD-Modellen, oder aus Ultraschalluntersuchungen ein Startbüd anstelle des ersten segmentierten Bildes oder in Kombination mit diesem verwendet werden. Es zeigt sich, dass dadurch auch die Konvergenz des Iterationsverfahrens beschleunigt werden kann.
Eine Vorrichtung zur Rekonstruktion eines Röntgenstrahltomogrammes weist Mittel zur Ausführung des beschriebenen Verfahrens auf. Beispielsweise ist die Vorrichtung ein Datenverarbeitungssystem und weisen die Mittel Speichermittel mit darin gespeicherten Computerprogrammcodemitteln auf, welche ein Computerprogramm beschreiben, und Datenverarbeitungsmittel zur Ausführung des Computerprogramms, wobei die Ausfuhrung des Computerprogramms zur Durchführung des Verfahrens gemäss der Erfindung führt. Das Datenverarbeitungssystem kann in einem Tomographiegerät eingebaut sein, oder es kann ein separater Computer mit EuWAusgabegeräten, einem Speicher und einem Prozessor sein. Da das Verfahren parallelisierbar ist, kann auch ein Datenverarbeitungssystem mit mehrem, parallel arbeitenden Prozessoren verwendet werden.
Ein Computerprogramm zur Rekonstruktion eines Röntgenstrahltomogrammes ist in einen internen Speicher einer digitalen Datenverarbeitungseinheit ladbar und weist
Computerprogrammcodemittel auf, welche, wenn sie in einer digitalen
Datenverarbeitungseinheit ausgeführt werden, diese zur Ausführung des erfindungsgemässen Verfahrens bringen. In einer bevorzugten Ausführungsform der
Erfindung weist ein Computerprogrammprodukt einen Datenträger, respektive ein computerlesbares Medium auf, auf welchem die Computerprogrammcodemittel gespeichert sind.
Weitere bevorzugte Ausführungsformen gehen aus den abhängigen Patentansprüchen hervor. Dabei sind Merkmale der Verfahrensansprüche sinngemäss mit den Vorrichtungsansprüchen kombinierbar und umgekehrt.
KURZE BESCHREIBUNG DER ZEICHNUNGEN hu folgenden wird der Erfmdungsgegenstand anhand von bevorzugten Ausführungsbeispielen, welche in den beiliegenden Zeichnungen dargestellt sind, näher erläutert. Es zeigen jeweils schematisch:
Figur 1 eine Anordnung beim Erzeugen eines Röntgenbildes; Figur 2 eine Anordnung beim Erzeugen eines Röntgentomogramms;
Figur 3 eine Abschwächung bei einer polychromatischen Strahlungsquelle;
Figur 4 einen kontinuierlichen Übergang bei einer Segmentierung eines Bildes in verschiedene Materialien;
Figur 5 ein Schnittbild, wobei die verschiedenen Graustufen unterschiedliche Dichten der Bildelemente darstellen;
Figur 6 ein Histogramm dieses Schnittbildes über die Dichte; Figur 7 aus dem Histogramm hergeleitete Anteilfunktionen für verschiedene
Materialien; und Figur 8 eine eindimensionale Funktion mit verschiedenen Surrogatfunktionen:
Die in den Zeichnungen verwendeten Bezugszeichen und deren Bedeutung sind in der Bezugszeichenliste zusammengefasst aufgelistet. Grundsätzlich sind in den Figuren gleiche Teile mit gleichen Bezugszeichen versehen.
WEGE ZUR AUSFÜHRUNG DER ERFINDUNG
Die Terminologie ("Bildpunkt", "Pixel") und die Beispiele sind der Erklärung halber auf zweidimensionale Bilder ausgerichtet. Die Erfindung lässt sich jedoch vom Prinzip her ohne weiteres auf dreidimensionale Darstellungen ("Volumenelemente", "Voxel") anwenden.
Der Begriff "Bildelement" steht deshalb, je nach Zusammenhang, für Pixel oder für Voxel. Analog bezieht sich der Begriff "Schnittbild" wahlweise auf eine zweidimensionale oder eine räumliche Repräsentation von Dichtewerten.
Figur 1 zeigt eine Anordnung beim Erzeugen eines Röntgenbildes. Eine Strahlungsquelle 1 sendet, durch einen Pfeil angedeutet, Röntgenstrahlen durch ein zu untersuchendes Objekt 2 gegen einen Bildaufnehmer oder Sensor 3. Die innere Struktur des Objektes 2 wird auf dem resultierenden Bild sichtbar. Figur 2 zeigt eine Anordnung beim Erzeugen eines Röntgentomogramms. Dabei sind die Strahlungsquelle 1 und der Bildaufnehmer 3 bezüglich des Objektes 2 drehbar angeordnet. So wird eine Mehrzahl von Bildern unter verschiedenen Drehwinkeln aufgenommen. Weitere Anordnungen sind beispielsweise in der WO 02/067201 in den Figuren 1 bis 3 und der dazugehörigen Beschreibung gezeigt. Es wird im Folgenden ein statistisches Bildrekonstruktionsverfahren für Röntgen- Computertomographie beschrieben Darin wird ein polyenergetisches Quellenstrahlenspektrum modelliert und in einer physikalischen Nachbildung der Messungen berücksichtigt. Bestimmte Teile der damit durchgeführten Optimierung sind beschrieben in Erdogan[2] und Elbakri [3].
Es wird für jedes Bildelement für einen gegebenen Dichtewert eine Zusammensetzung aus einer Menge von Referenzmaterialien berechnet, das heisst ein relativer Anteil jedes dieser Referenzmaterialien am Bildelement. Deshalb ist keine vorgängige benutzergeführte oder automatische Vorsegmentierung des Bildes erforderlich. Bei dieser Vorsegmentierung wird jedes Bildelement einem bestimmten Material oder einer Materialklasse wie beispielsweise Knochen, Luft, Gewebe, Metall, Legierung, ... zugeordnet. Der Zusammenhang zwischen der Dichte und der Zusammensetzung wird durch eine Berechnungsvorschrift dargestellt, die im Folgenden auch Anteilsmodell genannt wird. Das Anteilsmodell erlaubt, dass Bildelemente in Übergangsbereichen mit einer Mischung von Referenzmaterialien modelliert werden. Bildelemente in homogenen Bildbereichen weisen einen überwiegenden Anteil eines bestimmten Materials auf und können als aus diesem Material bestehend kategorisiert werden.
Für jedes Büdelement wird der Abschwächungskoeffizient modelliert als Produkt der zu ermittelnden Dichte mit der gewichteten Summe von energieabhängigen und massenbezogenen Abschwächungskoeffizienten. Diese Summe wird über die im Bildelement vorhandenen Materialien gebildet. GewichtΛmgsfunktionen werden durch eine Analyse des Dichtehistogramms eines ersten rekonstruierten Bildes sowie aus vorbekannten Materialeigenschaften gebildet.
Falls keine a priori information über die Materialien vorliegt, kann das Verfahren auch mit einem angepassten Verdrängungsmodell ("adapted displacement model") arbeiten. Dieses "adapted displacement model" wird aus Messungen mit einer Vielzahl von üblichen Materialien ermittelt. Für das polyenergetische Modell wird eine "penalized-likelihood" Funktion verwendet, und der Iterationsalgorithmus zur Bestimmung der Dichte der Büdelemente wird entsprechend dem Anteilmodell modifiziert. Im Folgenden wird die Erklärung der Einfachheit halber anhand von zweidimensionalen Beispielen vorgenommen. Die Erweiterung auf drei Dimensionen ist ohne weiteres möglich.
Polyenergetische Röntgenstrahl-Computertomographie
Die Messungen werden als unabhängig Poissonverteilte Zufallsvariablen modelliert (Erdogan [2]) welche durch Hintergrundrauschen gestört sind. Das Hintergrundrauschen wird vor allem durch Streuung erzeugt. Für die Messungen wird das folgende statistische Modell angenommen:
Mj ~)Poisson {i(£).exp - l..N
Figure imgf000010_0001
wobei μ(x, y, E) die unbekannte ortsabhängige und energieabhängige Abschwächung durch das Objekt am Ort x,y und für die Energie E ist. Das Integral im Exponenten wird über die Linie Li berechnet, und I(E) repräsentiert die kombinierte Energieabhängigkeit der Strahlungsquelle und der Detektorempfmdlichkeit. Die angenommene mittlere Streuung wird durch s& dargestellt. N ist die Anzahl einzelner Messstrahlen respektive Messpunkte. Die Funktion I(E) kann beispielsweise aus Kalibriermessungen mit verschiedenen Materialien bestimmt werden, oder durch eine Monte-Carlo Simulation.
Figur 3 zeigt eine Abschwächung bei einer polychromatischen Strahlungsquelle. Die Wellenlänge ist entlang der Abszisse aufgetragen, die Intensität entlang der Ordinate. Die oberste Kurve 5 zeigt das Spektrum der Strahlungsquelle, d.h. die Energie in Abhängigkeit der Wellenlänge. Beispielhaft ist eine vorgefilterte 450 keV-Quelle gezeigt. Die mittlere Kurve 6 zeigt das Spektrum nach 1 cm Aluminum, und die untere Kurve 7 nach 5 cm Aluminium.
Ein Objektmodell wird bei der polyenergetischen Modellierung wie folgt gebildet: Der Objektraum wird mit quadratischen Pixeln quantisiert (in einem dreidimensionalen Modell werden analog Voxel verwendet). Die Abschwächung wird damit berechnet als
P μ(x,y,E)= ∑bj{x,y)μj{E)
wobei b|(x,y) eine Basisfunktion für quadratische Pixel ist und μ/E) der unbekannte respektive gesuchte energieabhängige lineare Abschwächungskoeffizient des Materials im Pixel j ist. Die Basisfunktion gibt für Werte der Koordinaten x,y innerhalb des Pixels j den Wert 1 und alle anderen Werte von x,y den Wert Null. Für ein bestimmtes Material wird der Abschwächungskoeffizient bestimmt als Produkt des massebezogenen Abschwächungskoeffϊzienten mit der Dichte des Materials. Für das j-te pixel ist der Abschwächungskoeffizient gleich der gewichteten Summe der massebezogenen Abschwächungskoeffϊzienten der Referenzmaterialien, aus denen sich das Material im j-ten Pixel zusammensetzt, mal die Dichte des Pixels/ Voxels. Der Ausdruck für μj, den unbekannten energieabhängigen Abschwächungs- koeffizienten des Materials im j-ten Pixel ist:
Mj(E) = PjMn(E) = Pj ∑ωk(pj )μ^(E) k=l wobei ωk der dimensionslose Anteil des k-ten Referenzmaterials an der Abschwächung im Pixel j ist, und μm k jeweils der bekannte energieabhängige massebezogene Abschwächungskoeffizient des £-ten Referenzmaterials ist. Die Gewichtungsfunktionen ωk können als Verallgemeinerung einer diskreten Segmentierungsoperation durch einen kontinuierliche Darstellung betrachtet werden. AIs Illustration dieser Verallgemeinerung zeigt die Figur 4 einen kontinuierlichen Übergang bei einer Segmentierung eines Bildes in verschiedene Materialien. Entlang der Abszisse ist eine beliebige Ortskoordinate eines Bildes aufgetragen. Entlang der Ordinate ist der Anteil eines bestimmten Materials am massenbezogenen Abschwächungskoeffizienten für jeweils einen Bildpunkt im Objekt aufgetragen, wobei der Anteil eines weiteren Materials diesen auf 100% ergänzt. Bei einer diskreten Segmentierung ist jeder Punkt entlang dieser Koordinate entweder ganz dem einen Material Mat#l oder ganz dem anderen Material Mat#2 zugeordnet. Bei der kontinuierlichen Darstellung jedoch werden Punkte im Bereich des Übergangs zwischen den Materialien jeweils als aus beiden Materialien bestehend betrachtet.
Die ldassische Behandlung der Strahlaufhärtung geht davon aus, dass jedes Pixel einem bestimmten Material fest zugeordnet ist, das heisst dass eine Segmentierung a priori vorliegt. Dieser Ansatz ist erfolgreich, wenn zu Beginn ein Schnittbild guter Qualität vorliegt. Üblicherweise wird dabei das Verfahren der gefilterten Rückprojektion (Filtered Backprojection, FBP) verwendet, da damit Bildanteile mit hoher (räumlicher) Frequenz gut rekonstruiert werden. Es können aber auch andere Verfahren verwendet werden, beispielsweise ein statistischer Algorithmus unter Annahme von monochromatischer Strahlung. Das derart rekonstruierte Schnittbild kann auch als erstes Schnittbild oder Initialbild für die iterative Optimierung des Bildes verwendet werden. Für verrauschte Bilder wird dieser Ansatz aber sehr ineffizient, weil bei der Segmentierung eine grosse Anzahl von Büdelementen falsch klassifiziert wird. Aus diesem Grunde wird hier die Segmentierung und eine systematische Kalibrierung ganz vermieden, wobei aber Information über das Strahlspektrum benötigt wird. Der Ansatz gleicht teilweise dem segmentationsfreien Verfahren von Elbakri[3], mit dem Unterschied, dass hier die Modellierung von einer Materialzusammensetzung durch eine endliche Anzahl von nichtüberlappenden Objekten ausgeht, und die Objekte im wesentlichen homogen sind und scharfe Kanten aufweisen. Das Anteüsmodell wird wie folgt gebildet: Es wird von einem Bild ausgegangen, welches mit einer FBP oder einem statistischen Algorithmus unter Annahme einer monochromatischen Strahlungsquelle erzeugt wird. Typischerweise werden darin Strahlaufhärtungseffekte in der Bildmitte kleinere Abschwächungswerte erzeugen, und es werden streifenförmige oder strahlenförmige Artefakte ("streak artefacts") auftreten. Die Abschwächungskoeffizienten eines Materials im j-ten Pixel entsprechen einem Mittelwert über das Spektrum der Röntgenröhre, also
Figure imgf000013_0001
wobei pj die Dichte im j-ten Pixel ist. Anhand dieser Beziehung kann aus dem gemessenen Bild der Abschwächungswerte μ ein Dichtebild berechnet werden.
Aus praktischen Gründen kann auch eine andere Variante zum Erstellen eines Dichtebildes aus dem Abschwächungsbild entsprechend der Roh-Bilddaten durchgeführt werden: Dazu wird zuerst ein Histogramm des Abschwächungsbildes erstellt. Jede Spitze des Histogramms von μ entspricht einem a priori bekannten
Material mit einer bekannten Dichte p. Somit ist eine Anzahl von Wertepaaren (μ,p) bekannt, und es kann ein Polynom, beispielsweise 2. oder 3. Ordnung bestimmt werden, das aus der Abschwächung μ die Dichte bestimmt. Mit diesem Polynom, oder allgemein mit einer Zuordnungsfunktion, wird aus dem gemessenen Bild der
Abschwächungswerte μ ein Dichtebild berechnet.
Im Folgenden wird davon ausgegangen, dass wie in industriellen Anwendungen typisch, ein Objekt nicht aus einer Vielzahl unterschiedlicher Gewebe besteht, sondern aus einer begrenzten Anzahl von Teilen aus unterschiedlichen Materialien. In einer Variante der Erfindung sind die Teile zudem mchtüberlappend. Dabei weisen die Materialien in der Regel extrem unterschiedliche Abschwächungskoeffizienten auf, die im Voraus bekannt sind. Auf dieser Basis wird das Anteilsmodell aus dem Histogramm in der folgenden Weise automatisch gebildet:
Die Figur 5 zeigt ein Schnittbild, wobei die verschiedenen Graustufen unterschiedliche Dichten der Bildelemente darstellen. Figur 6 zeigt das daraus resultierende Dichtehistogramm. Jede der Spitzen im Histogramm entspricht einem bestimmten Material. Jede Spitze wird im Bereich um die Spitze herum durch ein
Gauss'sches Modell angenähert, wozu beispielsweise ein nichtlineares
Optimierungsverfahren wie der Levenberg-Marquardt-Algorithmus verwendet wird. Die Dichte entsprechend der Mitte der derart eingepassten Gauss'schen Verteilung
(pf ,σ% ) wird als gemessene Dichte pf zum Material k bezeichnet. Hohlräume entsprechen dem Material "Luft". Diesen Bildpunkten wird für die weitere Berechnung der Abschwächungskoeffizient von Luft und die (sehr kleine) Dichte zugeordnet.
Anschliessend wird berücksichtigt, dass die Dichtewerte in jedem Bildelelement aufgrund der Strahlaufhärtung kleiner sind als die tatsächliche Dichte pu des k-ten Referenzmaterials. Gemäss dem Anteilsmodell wird deshalb für Dichte werte p zwischen pic g und pk der Materialanteil ωk des k-ten Materials auf 100% gesetzt. Zwischen diesem Bereich und dem entsprechenden Bereich des nächsten Materials k+1 mit der nächsthöheren Dichte geht der Anteil des k-ten Materials von 1 auf 0 und geht der Anteil des nächsten Materials von 0 auf 1. Die Summe der relativen Anteile aller Materialien ist immer 1, also
∑®k(pj)= l, 0 ≤ ωk(Pj)≤ l Jt=I In diesem Übergangsbereich wird der Anteil der Materialien jeweils durch ein Polynom dritten Grades dargestellt, so dass erstens die obigen Bedingungen erfüllt sind und die Funktion beim Übergang zu den Bereichen mit den Werten 0 respektive 1 stetig und zweimal differenzierbar ist. Das Anteilsmodell für das k-te Material kann im Bereich zwischen pf und p[+i somit ausgedrückt werden als
Figure imgf000015_0001
Im Bereich unter pk S geht analog der Anteil von 1 auf 0 zurück und nimmt der Anteil des k-l-ten Materials von 0 auf 1 zu. Für das Beispiel der Figuren 5 und 6 sind die resultierenden Anteilfunktionen für verschiedene Materialien in der Figur 7 dargestellt. Die Dichte p ist entlang der Abszisse aufgetragen, die Anteile ω der verschiedenen Materialien Mat. #0 bis Mat. #3 entlang der Ordinate. Dabei bezeichnet Mat. #0 die Hohlräume respektive Luft.
In einer anderen Variante des Verfahrens wird der Anteil der Materialien jeweils durch zwei Polynome vierten Grades dargestellt, wobei die Bereiche zwischen dem Wert Null und 0.5 sowie zwischen 0.5 und 1 auf die beiden Polynome aufgeteilt sind. Dabei werden die Polynome so gewählt, dass beim Wert 0.5 ein stetiger Übergang zwischen den Polynomen resultiert (die erste und zweite Ableitung sind im Übergangspunkt gleich). Dies ist von Vorteil, wenn die Abstände zwischen den Dichtewerten für die Werte Null, 0.5 und 1 sich stark unterscheiden.
In der späteren iterativen Optimierung wird die Materialzusammensetzung jedes Pixels durch das Anteilsmodell entsprechend seiner Dichte bei jedem Iterationsschritt angepasst.
Falls die Materialien nicht a priori genau bekannt sind, kann auch von einem
Standardsatz von Materialien ausgegangen werden, der der Situation angepasst ist. Beispielsweise kann Eisen als Repräsentant für mehrere andere Metalle verwendet werden, oder es können Gewebe als eine Mischung von Wasser und Knochen betrachtet werden („displacement model"). Anschliessend können verschiedenen Mischungsverhältnissen weitere Gewebe wie Herz. Lunge, Blut etc. zugeordnet werden.
Im Folgenden wird für die Erläuterungen von einem Modell mit wenigen (2-3) Materialien mit signifikant unterschiedlichen Dichten ausgegangen, so dass die Anteilsfunktion wie gezeigt automatisch aus dem Histogramm und seinen Spitzen bestimmbar ist.
Das Linienintegral für die i-te Messung kann als Skalarprodukt ausgedrückt werden:
Figure imgf000016_0001
wobei H = {hj } im Folgenden als Systemmatrix bezeichnet wird. Die einzelnen Elemente hy geben den Einfluss von Pixel j auf Messung i wieder. P ist die Anzahl der Pixel.
Die Matrix H wird üblicherweise auch als Projektionsmatrix oder Projektionsoperator bezeichnet und durch einen Distance-Driven [8] Algorithmus bestimmt. Die Distance-Driven Methode ist gut geeignet für parallelisierbare Rechnungen, und benötigt (zum Gegensatz zu beispielsweise einer Siddon-Methode) nur eine einzige Speicherung des Bildes und des Sinogramms. Die Matrix ist schwach besetzt und kann für eine kleine Anzahl von Messungen im Arbeitspeicher eines Rechners gehalten werden. Für grossere Mengen von Messwerten wie bei konischen Röntgenstrahlen, Helix-Scannern oder Fan-beam Geräten sind jedoch, auch bei effizienter Speicherung, mehrere Gigabyte bis tausende von Terabyte erforderlich. Deshalb wird in der Röntgenstrahltomographie das Linienintegral jeweils immer neu "on the fly" berechnet, ohne dass die Matrix H gespeichert wird. Gemäss dem vorliegenden Verfahren wird, wie weiter unten vorgestellt, eine Projektion der Matrix gespeichert, was entsprechende Auswirkungen auf die iterative Optimierung hat.
Das Linienintegral kann umgeformt und in der folgenden Form ausgedrückt werden:
Figure imgf000017_0001
mit: ϊ„
Figure imgf000017_0002
Der Vektor s, wird oft als effektive Dicke bezeichnet.
Damit kann der Ausdruck für die log-likelihood-Funktion, unter Verwendung des idealen Erwartungswertes der Messung M; geschrieben werden als:
Figure imgf000017_0003
mit :
Figure imgf000017_0004
E htiή ^ Mi logüή-t, ht{t)= ^--l,
Eine Kostenfunktion für das polyenergetische Modell wird aus den folgenden Gründen eingeführt: Bei einer wohlkonditionierten Matrix H und unverrauschten Messungen würde die Minimierung der negativen Likelihood-Funktion L ein ideales Ergebnis liefern. In der Realität sind diese Umstände nicht gegeben und ist eine Regularisierung des Problems nötig. Dies wird durch Hinzufügen einer Kostenfunktion (penalty function) zu der Likelihood-Funktion erreicht: Es wird eine paarweise Regularisierung mit einem Regularisierungsterm oder Kostenterm der folgenden Form betrachtet:
Figure imgf000018_0001
wobei φ eine Potentialfunktion ist und Nj eine bestimmte Nachbarschaft des j-ten Pixels ist. Beispielsweise wird dafür ein konvexes kantenerhaltendes Hyperflächen- potential verwendet: φ(u) = Vl + u2
Diese Norm hat sich in der Regularisierung von Tomogrammen bewährt (Charbonnier [4]). Die Kombination der Likelihood-Funktion mit der Kostenfunktion ergibt die folgende penalized-likelihood (PL) Kostenfunktion:
φ{p)= -L{p)+ßR{p) wobei ß ein Skalar ist welcher die relative Gewichtung zwischen der Datenüber- einstimmung und der Kostenfunlction kontrolliert.
Das Ziel der Bildrekonstruktion wird damit als eine Minimierung des Funktionais Φ unter bestimmten Randbedingungen formuliert. Diese Randbedingungen sind insbesondere, dass negative Dichten nicht zulässig sind und dass vom Benutzer eine maximale Dichte vorgegeben werden kann. Somit ist das Ziel der Minimierung der Satz oder das Bild (2D oder 3D) von Dichtewerten p*, für welche p* = min Φ(/>) O≤P≤Pmax Dieses multidimensionale nichtlineare Minimierungsproblem wird mit einem iterativen Algorithmus gelöst: Der Einfachheit wird im Folgenden auf den Likelihood-Term L(p) eingegangen; analoge Resultate ergeben sich für den Kostenterm R(p). Die Mininiierung fusst auf der Theorie des Optimierungstransfers ("optimisation transfer"), welche in [2] detailliert beschrieben ist. Einfach gesagt erlaubt der Ansatz des Optimierungstransfers den Ersatz einer komplexen Likelihood-Funktion durch einfachere Ersatzfunktionen ("Surrogatfunktionen, Surrogate cost functions") welche einfacher zu minimieren sind. Durch den Optimierungstransfer kann dafür gesorgt werden, dass die Kostenfunktion mit jedem Iterationschritt monoton fällt. In Figur 8 ist dieses Prinzip für den eindimensionalen Fall illustriert: Anstelle dass Φ(μ) minimiert wird, wird in der n- ten Iteration die Ersatzfunktion φ(μ; μn) minimiert. Hier hat die Ersatzfunktion φ2 eine schwächere Krümmung und ist breiter als φl, somit führt φ2 zu einer grosseren Schrittweite und zu einer schnelleren Konvergenz zum lokalen Minimum.
Das Prinzip des Optimierungstransfers wird zweimal angewandt: erstens unter Verwendung der Eigenschaft der multiplikativen Konvexität; und zweitens unter Verwendung von parabolischen Ersatzfunktionen (parabola Surrogates, siehe [2]). Dies liefert eine separierbare und einfache Ersatzfunktion, welche einfacher als die negative Log-Likelihood-Funktion zu minimieren ist. Diese paraboloide Ersatzfunktion ist [3]:
Figure imgf000019_0001
wobei n die n-te Iteration bezeichnet, und die folgenden Definitionen verwendet werden:
Figure imgf000019_0002
ist eine Ersatzfunktion von g" wobei wiederum
gf [μm -feWy, + scλ E
Figure imgf000019_0003
Figure imgf000020_0001
Die Ersatzfunktion ist separierbar, weil eine Summe über alle Pixel P gebildet wird. Dank der Separierbarkeit kann die Berechnung der Ersatzfunktion problemlos 5 parallelisiert werden.
Zur Herleitung des Optimierungsverfahrens wird die erste Ableitung bestimmt und im Sinne der Newtonschen Methode gleich Null gesetzt. Dies ergibt die folgende Vorschrift zur Aktualisierung:
Figure imgf000020_0002
worin Q eine Ersatzfunktion ("Surrogate function") für den Regularisierungsterm R(ρ) ist.
Im Folgenden wird die Bestimmung der Berechnung des Gradienten und der 5 Hesseschen Matrix von P beschrieben (Q ist unabhängig von der Energie und bereitet keine Schwierigkeiten). Der Gradient der Ersatzfunktion P ist für die n-te Iteration ohne weiteres bestimmbar als
Figure imgf000020_0003
/=1 I Mfö }+ scj) σPj Für die Hessesche Matrix von P werden die zweiten Ableitungen von q[ benötigt. An der Stelle p" ergibt sich:
Figure imgf000021_0001
Darin ist C,n die Krümmung der paraboloiden Ersatzfunktion. Die Krümmung wird gemäss der Theorie des „optimisation transfer" so gross gewählt, dass die Ersatzfunktion immer grösser als die zu approximierende Funktion ist. Dieser Wert wird auch als vorausberechnene Krümmung ("precomputed curvature") bezeichnet,
10 da er von den Iterationen unabhängig ist.
Zur Beschleunigung der Optimierung kann, unter Verzicht auf absolute Monotonie des Verfahrens, das Verfahren der geordneten Untermengen (ordered subsets) angewandt werden, siehe zum Beispiel [5]. Darin werden Untermengen der Daten 15 umgeordnet, was die Konvergenz drastisch verbessert aber zum Teil die Monotonizität beeinträchtigt. Da die statistischen Verfahren in ihrer Grundform zu langsam sind, ist eine solche Art der Beschleunigung für eine praktische Anwendung vertretbar. Damit das Verfahren praktisch umgesetzt werden kann, werden die folgenden drei Vereinfachungen oder Annäherungen gemacht:
1. Die Krümmung Cf (E)1- wird durch eine im voraus berechnete Krümmung M1 ersetzt, welche unabhängig von der Iteration und von der Energie ist. Dies wird in Erdogan [2] gezeigt:
Figure imgf000022_0001
Dabei ist Mj die wirkliche, i-te Messung, wohingegen Mj(s) eine Abschätzung
Figure imgf000022_0002
E 2. Es wird ausgenutzt, dass die Variation der massebezogenen Abschwächung über das Spektrum statt dessen für die mittlere (mean) Energie ausgewertet werden kann. Dies ist insbesondere der Fall, wenn 450kV-Röhren mit externen Filtern verwendet werden, beispielsweise einem 4.5 mm Messing-Filter so dass die mittlere Energie des Strahls bei 230 keV liegt. In diesem Bereich andern sich die massebezogenen Abschwächungskoeffizienten nur wenig. Also :
Figure imgf000022_0003
3. Die Berechnung von /^. ist ohne Speichern der Projektionsmatrix H nicht mit akzeptablem Aufwand möglich. Das Speichern von H wiederum ist aus den oben schon vorgestellten Gründen in vielen Fällen nicht möglich. Deshalb werden die Elemente von H über alle Pixel j summiert und diese Summen in einem Summenvektor γ. , typischerweise einem Spaltenvektor, gespeichert. Damit wird als weitere Näherung die folgende Ungleichung eingesetzt: hU ≤ hÜ-∑hij =hy-ri Bemerkung: Der Term hjj taucht in den vorherigen und nachfolgenden Gleichungen auf, aber immer in der Form ^h11X1 , d.h. im Zusammenhang mit einer Projektion oder Rückprojektion. Es werden nie die einzelnen Werte von hjj gespeichert, sondern nur die (rück)projizierten Werte.
Ferner wird b " (E) über das Spektrum normalisiert, .
Figure imgf000023_0001
Damit ergibt sich eine obere Grenze für die zweite Ableitung von P als:
Figure imgf000023_0002
Diese Funktion ist somit immer noch. Kandidat für die Krümmung der Ersatzfunktion. Prinzipiell ist die Konvergenz für grossere Werte der Krümmung langsamer.
Mit dieser Näherung besteht keine Garantie für Monotonizität. Es hat sich aber gezeigt, dass mit einem ersten rekonstruierten Schnittbild guter Qualität wie aus einer FPB-Rekonstruktion die Kostenfunktion zuverlässig abnimmt.
Der Rechenaufwand beträgt pro Iteration K Vorwärtsprojektionen und K Rückprojektionen, wobei K die Anzahl unterschiedlicher Referenzmaterialien ist. Dies ist also äquivalent zu rund 2K FPB-Durchläufen. Dank der dritten Vereinfachung kann die Krümmung ohne Speichern der Systemmatrix H berechnet werden.
Aus dem Spektrum der Röntgenstrahlen oder aus äquivalenten Messungen kann M1 und der Gradient V ^Mj bestimmt werden, beispielsweise in Form einer konischen Flächenapproximation, (Cardinal and Fenster [I]) oder durch Interpolation von tabellierten Werten von Mj und VJJ-M/ . Die zweite Variante ist bei Verwendung von mehr als zwei Materialien besonders vorteilhaft.
Alternativ kann ein Array mit vorausberechneten Werten von M, und dem Gradienten V^-M/ als Basis für eine Interpolation für weitere Werte von M,- verwendet werden.
Das Verfahren kann zusammengefasst mit dem folgenden Pseudocode dargestellt werden. Bei einzelnen Schritten ist der Aufwand als Anzahl von Projektionen oder Rückprojektionen angegeben. Hier ist auch die Verwendung von geordneten Untermengen mit dargestellt:
• Initialisieren der Dichte der Bildelemente mit p°=pFBP aus einer gefilterten Rückproj ektion.
• Berechnen des Dichtehistogramms und Berechnen der Extrema durch Gauss'sche Approximation
• Berechnen der Anteilmodelle jω [p )j κ
Berechnen der Polynome — ( p ω [p J
Figure imgf000024_0001
• Berechnen der Parameter der konischen Approximation von
Figure imgf000024_0002
• Vorausberechnen des zweiten Terms D2 der Krümmung
Figure imgf000024_0003
or jede Iteration n=l ..Νiter Berechnen des Gradienten und der Krümmung der paraboloiden Ersatzfunktion
5des Regularisierungsterms: -^- . -^4- dpt dp-
For jede Untermenge S=l..NbSub
Bereclinen von sf = '∑OijPj∞lψj ] s" = H'"— ^1" J (κ Projektionen)
Berechnen von Mj iyf L V^M/ Ly" 1 mit konischen Approximationen
Berechnen von Zj (K Sinogramme)
Figure imgf000025_0001
N
Berechnen von Z : BPZh = ΥJhi UjZf (K Rückprojektionen) i=l
For jedes Pixel j = 1 ...P
Berechnen von Nj = ∑k J'j BPZj , Dχ = J] kή BPZ^, Aufdatieren der Dichte gemäss der Iterationsvorschrift:
Nj + + D2)f
Figure imgf000025_0002
Figure imgf000025_0003
End of loop - über Pixel End of loop - über Untermengen End of loop - über Iterationen
In einer Variante ohne geordnete Untermengen wird anstelle der Schlaufe über die Untermengen eine Schlaufe über die gesamte Anzahl von Messungen, das heisst über das gesamte Sinogramm ausgeführt. Die neuen Werte von p" sind nur von den
Werten von p" abhängig, das heisst, dass das Aufdatierungsverfahren simultan ist. Referenzen :
[1] H. N. Cardinal and A. Fenster. An accurate method for direct dual-energy calibration and decomposition. Med. Phys.. 17(3):327-41, May 1990.
[2] H Erdogan, J A Fessler. Monotonie algorithms for transmission tomography. IEEE Trans. Med. Imag., 18(9):801-14, Sep. 1999.
[3] I A Elbakri, J A Fessler. Statistical image reconstruction for polyenergetic X-ray computed tomography. IEEE Trans. Med. Imag., 21(2):89-99, Feb. 2002.
[4] P. Charbonnier et al. Deterministic edge-preserving regularization in computed tomography. IEEE Trans. Image. Processing , vol 6, no 2, pp 298-311, 1997
[5] H. M. Hudson and R. S. Larkin. Accelerated image reconstruction using ordered subsets of projection data. IEEE Transactions on Medical Imaging, 13(4):601- 609, December 1994.
[6] A. R. De Pierro, A modified expectation maximization algorithm for penalized likelihood estimation in emission tomography," IEEE Tr. Med. Im., vol. 14, no. 1, pp.l32-1375 March l995.
[7] W. Zbijewski and FJ Beekman "Suppression of intensity transition artefacts in Statistical x-ray CT reconstruction through Radon Inversion initialization" Med.Phys 31(1), January 2004.
[8] Bruno De Man and Samit Basu. Distance-driven projection and backprojection in three dimensions. Phys. Med. Biol. 49 No 11 (7 June 2004) 2463-2475.

Claims

PATENTANSPRÜCHE
1. Verfahren zur Rekonstruktion eines Röntgenstrahltomogrammes zum Erzeugen eines Schnittbildes, wobei ein Schnittbild eine Repräsentation von zweidimensionalen oder räumlichen Bildwerten ist, ausgehend von Roh- Bilddaten, welche durch eine polyenergetische Strahlungsquelle erzeugt worden sind, aufweisend die folgenden Schritte:
• Bereitstellen eines Anteilmodells, welches den Anteil von mindestens zwei Materialien eines Bildelementes in Funktion der Dichte des Bildelelementes bestimmt; • Rekonstruktion eines ersten rekonstruierten Schnittbildes anhand der Roh-
Bilddaten;
• Iteratives Berechnen von weiteren rekonstruierten Schnittbildern unter Verwendung eines statistischen Optimierungsalgorithmus mit Berücksichtigung des polyenergetischen Spektrums der Strahlungsquelle und unter Verwendung des Anteilmodells.
2. Verfahren gemäss Anspruch 1, wobei insbesondere vor den iterativen Berechnungen keine Segmentierung durchgeführt wird.
3. Verfahren gemäss Anspruch 1 oder 2, in welchem der Schritt "Bereitstellen eines Anteilmodells", die folgenden Schritte aufweist:
• Rekonstruktion eines ersten Schnittbildes anhand der Roh-Bilddaten;
• Erstellen eines Dichtehistogramms des ersten Schnittbildes;
• Identifizieren von Extrema des Histogramms; und • Bestimmen des Anteilmodells als Funktion der Extrema.
4. Verfahren gemäss Anspruch 3, in welchem zum Erstellen des Dichtehistogramms aus Roh-Bilddaten die folgenden Schritte duchgefuhrt werden: • Erstellen eines Histogramms der Abschwächungswerte des. ersten Schnittbildes;
• Bildung von Wertepaaren durch Zuordnen von Abschwächungswerten entsprechend den Maxima des Histogramms zu Dichtewerten von a priori erwarteten Materialien;
• Bestimmung einer Zuordnungsfunktion aus den Wertepaaren; und
• Berechnen eines Bildes von Dichtewerten durch Einsetzen der Abschwächungswerte des ersten Schnittbildes in die Zuordnungsfunktion.
5. Verfahren gemäss Anspruch 3 oder 4, in welchem für mindestens einen Bereich des Histogramms das Extremum mittels Approximation jeweils einer Spitze in diesem Bereich durch eine Gaussverteilung geschieht.
6. Verfahren gemäss Anspruch 3 oder 4 oder 5, in welchem das Anteilmodell auch a priori Informationen über die Dichte der im Tomogramm erwarteten
Materialien verwendet, wobei insbesondere die a priori Informationen von CAD-Modellen, optischen Messungen oder Ultraschallmessungen stammen.
7. Verfahren gemäss Anspruch 6, in welchem zur Bestimmung des Anteilmodells mindestens die folgenden Schritte ausgeführt werden:
• Bestimmen, für alle der erwarteten Materialien k, welches der Extrema mit seiner Dichte pjj: kleiner als die a priori bekannten Dichte p, des erwarteten Materials ist und dieser am nächsten liegt, und Zuordnen der Dichte pj? dieses Extremums zum betreffenden Material; • Bestimmen des Anteilmodells für mindestens eines der Materialien als
Funktion der Dichte, so dass die Funktion zwischen den beiden Dichtewerten pj> und pk des Material den Wert eins aufweist, und in einem
Übergangsbereich zu einem dichtemässig benachbarten Material einen stetigen Übergang von eins auf null aufweist.
8. Verfahren gemäss einem der bisherigen Anspräche, wobei der statistische Optimierungsalgorithmus mindestens die folgenden iterativ wiederholten Schritte aufweist: • Berechnen von modellierten Bilddaten als Funktion eines Schnittbildes mit
Dichtewerten mittels eines polyenergetischen Modells der Bilderzeugung, wobei die Abschwächung der Strahlung in einem Bildelement eine Funktion der Anteile der verschiedenen Materialien sind, und diese Anteile wiederum über das Anteilmodell eine Funktion der Dichte des Bildelementes sind; • Bestimmen eines aufdatierten Dichtewertes pj pro Bildelement als
Funktion eines vorherigen Dichtewertes pj und eines Korrekturwertes im durch einen simultanen und insbesondere auch separierbaren Update- Algorithmus.
9. Verfahren gemäss einem der bisherigen Ansprüche, wobei Werte einer Systemmatrix H—{hij} zur Repräsentation des Einflusses eines Bildelementes j auf eine Messung i nicht in ihrer Gesamtheit gespeichert werden.
10. Verfahren gemäss Anspruch 9, aufweisend die Schritte: • Berechnen und Speichern, jeweils für die Messungen l..i, von zugeordneten Werten # als Summe der Werte von hy über jeweils alle j Bildelemente der Messung;
• Berechnen der weiteren rekonstruierten Schnittbilder unter Verwendung von hijYi anstelle von h^ .
11. Datenverarbeitungssystem zur Rekonstruktion eines Röntgenstrahltomogrammes, wobei das Datenverarbeitungssystem Mittel aufweist zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 10.
12. Computeiprograram zur Rekonstruktion eines Röntgenstrahltomogranimes, welches auf einer Datenverarbeitungseinheit ladbar und ausführbar ist. und welches bei der Ausführung das Verfahren nach einem oder mehreren der Ansprüche 1 bis 10 ausführt.
13. Datenträger, enthaltend ein Computerprogramm gemäss Anspruch 11.
PCT/CH2007/000048 2006-02-16 2007-01-31 Computertomographische bildrekonstruktion WO2007093066A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP07701848A EP1984897A1 (de) 2006-02-16 2007-01-31 Computertomographische bildrekonstruktion

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CH246/06 2006-02-16
CH2462006 2006-02-16

Publications (1)

Publication Number Publication Date
WO2007093066A1 true WO2007093066A1 (de) 2007-08-23

Family

ID=36889262

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2007/000048 WO2007093066A1 (de) 2006-02-16 2007-01-31 Computertomographische bildrekonstruktion

Country Status (2)

Country Link
EP (1) EP1984897A1 (de)
WO (1) WO2007093066A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009068663A1 (fr) * 2007-11-30 2009-06-04 Commissariat A L'energie Atomique Systeme et procede d'imagerie a trois dimensions d'un objet

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0366387A2 (de) * 1988-10-24 1990-05-02 General Electric Company Dreidimensionale Bildergewinnung von tomographischen Daten
US4991093A (en) * 1985-08-21 1991-02-05 Exxon Research And Engineering Company Method for producing tomographic images using direct Fourier inversion
US6507633B1 (en) * 2001-02-15 2003-01-14 The Regents Of The University Of Michigan Method for statistically reconstructing a polyenergetic X-ray computed tomography image and image reconstructor apparatus utilizing the method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4991093A (en) * 1985-08-21 1991-02-05 Exxon Research And Engineering Company Method for producing tomographic images using direct Fourier inversion
EP0366387A2 (de) * 1988-10-24 1990-05-02 General Electric Company Dreidimensionale Bildergewinnung von tomographischen Daten
US6507633B1 (en) * 2001-02-15 2003-01-14 The Regents Of The University Of Michigan Method for statistically reconstructing a polyenergetic X-ray computed tomography image and image reconstructor apparatus utilizing the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JOSEPH PETER M ET AL: "A method for simultaneous correction of spectrum hardening artifacts in CT images containing both bone and iodine", MEDICAL PHYSICS, AIP, MELVILLE, NY, US, vol. 24, no. 10, October 1997 (1997-10-01), pages 1629, XP012010114, ISSN: 0094-2405 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009068663A1 (fr) * 2007-11-30 2009-06-04 Commissariat A L'energie Atomique Systeme et procede d'imagerie a trois dimensions d'un objet

Also Published As

Publication number Publication date
EP1984897A1 (de) 2008-10-29

Similar Documents

Publication Publication Date Title
DE102009003387B4 (de) Verfahren und System zur Bildrekonstruktion
US9036885B2 (en) Image reconstruction in computed tomography
DE112007001451B4 (de) Vorrichtung und Verfahren zum Verbessern einer Auflösung eines Bildes
DE102009014723B4 (de) Kontrastabhängige Regularisierungsstärke bei der iterativen Rekonstruktion von CT-Bildern
US6507633B1 (en) Method for statistically reconstructing a polyenergetic X-ray computed tomography image and image reconstructor apparatus utilizing the method
DE102007049469B4 (de) Röntgentomographievorrichtung und Artefaktreduktionsverfahren
DE102013106467A1 (de) Verfahren und Vorrichtung zur iterativen Rekonstruktion
DE102012207629B4 (de) CT-Bildrekonstruktion im erweiterten Messfeld
DE102008028387B4 (de) Tomographisches Bildrekonstruktionsverfahren zum Erzeugen eines Bildes von einem Untersuchungsobjekt und nach diesem Verfahren arbeitende bildgebende Einrichtung
DE102009014726A1 (de) Verfahren und Bildrekonstruktionseinrichtung zur Rekonstruktion von Bilddaten
WO2002067201A1 (en) Statistically reconstructing an x-ray computed tomography image with beam hardening corrector
DE102009051384A1 (de) Strahlaufhärtungskorrektur für CT-Perfusionsmessungen
DE102009032059A1 (de) Sinogrammbearbeitung für die Metallartefaktreduktion in der Computertomographie
DE102010022306A1 (de) Iterative CT-Bildrekonstruktion in Kombination mit einem vierdimensionalen Rauschfilter
DE102005051620A1 (de) Verfahren zur Rekonstruktion einer tomographischen Darstellung eines Objektes
DE102011086771A1 (de) Computertomographieanlage und Verfahren zum Ermitteln von Volumeninformationen zu einem Körper
DE102010022305A1 (de) Iterative Rekonstruktion von CT-Bilern ohne Regularisierungsterm
DE102012110497A1 (de) Verfahren und Vorrichtung für iterative Rekonstruktion
DE102011086456A1 (de) Rekonstruktion von Bilddaten
DE102010006585A1 (de) CT-Bildrekonstruktion im erweiterten Messfeld
De Witte et al. A multiresolution approach to iterative reconstruction algorithms in X-ray computed tomography
DE102011083647A1 (de) Verfahren, Rechensystem und CT-System zur Erzeugung eines bewegungskompensierten CT-Bilddatensatzes eines sich teilweise und zyklisch bewegenden Untersuchungsobjektes
DE102017200282B3 (de) Verfahren zur Reduktion von Bildartefakten
DE102010011911B4 (de) Tomosyntheseverfahren mit einer iterativen Maximum-A-Posteriori-Rekonstruktion
EP2009592B1 (de) Verfahren zur Streukorrektur von röntgentomografischen Daten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2007701848

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007701848

Country of ref document: EP