DE102006049865B4 - Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern - Google Patents

Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern Download PDF

Info

Publication number
DE102006049865B4
DE102006049865B4 DE102006049865A DE102006049865A DE102006049865B4 DE 102006049865 B4 DE102006049865 B4 DE 102006049865B4 DE 102006049865 A DE102006049865 A DE 102006049865A DE 102006049865 A DE102006049865 A DE 102006049865A DE 102006049865 B4 DE102006049865 B4 DE 102006049865B4
Authority
DE
Germany
Prior art keywords
projection images
projection
data set
volume
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102006049865A
Other languages
English (en)
Other versions
DE102006049865A1 (de
Inventor
Dr. Camus Estelle
Dr. Redel Thomas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102006049865A priority Critical patent/DE102006049865B4/de
Priority to US11/973,246 priority patent/US7945082B2/en
Publication of DE102006049865A1 publication Critical patent/DE102006049865A1/de
Application granted granted Critical
Publication of DE102006049865B4 publication Critical patent/DE102006049865B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/507Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for determination of haemodynamic parameters, e.g. perfusion CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Vascular Medicine (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Auswertungsverfahren für Daten (14, B) eines Untersuchungsobjekts (8), das ein Gefäßsystem mit Gefäßen und dessen Umgebung enthält, – wobei die Daten (14, B) zumindest einen Volumendatensatz (14) des Untersuchungsobjekts (8) und eine Anzahl zweidimensionaler Projektionsbilder (B) des Untersuchungsobjekts (8) umfassen, – wobei der Volumendatensatz (14) eine Vielzahl von Voxeln (15) aufweist und jedes Voxel (15) einem Ort im dreidimensionalen Raum zugeordnet ist, – wobei das Gefäßsystem im Volumendatensatz (14) segmentiert ist, – wobei jedes Projektionsbild (B) eine Vielzahl von Pixeln (17) aufweist, jedes Pixel (17) einem Ort in einer zweidimensionalen Projektionsebene (18) zugeordnet ist und einen Pixeldatenwert aufweist und jedem Pixel (17) ein Projektionsvolumen (19) zugeordnet ist, – wobei die Projektionsvolumina (19) dadurch bestimmt sind, dass sie durch die Durchleuchtung auf die Pixel (17) abgebildet werden, denen sie jeweils zugeordnet sind, – wobei ein Teil der segmentierten Gefäße selektiert wird und anhand der selektierten...

Description

  • Die vorliegende Erfindung betrifft ein Auswertungsverfahren für Daten eines Untersuchungsobjekts, das ein Gefäßsystem mit Gefäßen und Umgebung enthält. Derartige Auswertungsverfahren sind allgemein bekannt. Insbesondere sind Auswertungsverfahren bekannt, bei denen die Daten des Untersuchungsobjekts einen Volumendatensatz des Untersuchungsobjekts und/oder eine Anzahl zweidimensionaler Projektionsbilder des Untersuchungsobjekts umfassen. Rein beispielhaft sei bezüglich der Auswertung eines Volumendatensatzes eine 3D-Angiographie genannt, bezüglich der Auswertung einer Anzahl von zweidimensionalen Projektionsbildern eine Perfusionsanalyse. Die vorliegende Erfindung betrifft derartige Auswertungen.
  • Für die bildgebende Diagnostik beispielsweise zerebraler Erkrankungen wie Schlaganfall, AVM (arteriell-venöse Malformation) oder Krebserkrankungen stehen heute die etablierten Methoden wie CT (= Computertomographie) oder MR (= Magnetresonanz) und darüber hinaus auch C-Bogen-basierte 3D-Bildgebung zur Verfügung. Bezüglich CT und MR wird beispielhaft auf die Broschüre „CME Radiologie – Zerebrale Perfusion” von Horst Traupe, Schering und Thieme 2005, verwiesen. Bei diesem Auswertungsverfahren erfolgt die Auswertung eines Volumendatensatzes, der eine Vielzahl von Voxeln aufweist, wobei jedes Voxel einem Ort im dreidimensionalen (= 3D) Raum zugeordnet ist. Diesen Methoden ist gemeinsam, dass sie morphologische Informationen über das Untersuchungsobjekt liefern.
  • Weiterhin sind im Stand der Technik verschiedenste Methoden in der CT- und MR-Bildgebung bekannt, die funktionelle Informationen über das Untersuchungsobjekt liefern. Insbesondere können bezüglich der Blutversorgung des Untersuchungsobjekts dessen Perfusion, das aufgenommene Blutvolumen, die sogenannte „mean transit time” und andere parametrische Größen ermittelt werden. Wichtige Informationen können auch aus dem Vergleich der verschiedenen Größen miteinander abgeleitet werden. Beispielhaft wird auf den Fachaufsatz „CT-Perfusionsbildgebung bei zerebraler Ischämie” von Matthias König, Radiologie up2date 2/2001, Seiten 187 bis 202, und auf den Fachaufsatz „Perfusion CT: a worthwhile enhancement?” von K. A. Miles und M. R. Griffiths, The British Journal of Radiology, April 2003, Seiten 220 bis 231, verwiesen.
  • Die Bildgebungsmethoden werden in der Regel präinterventionell eingesetzt. Sie stehen somit während einer therapeutischen Intervention nicht zur Verfügung. Interventionen werden in der Regel im Angiographielabor durchgeführt, welches üblicherweise über ein C-Bogen-basiertes Röntgensystem verfügt. Mittels derartiger Röntgensysteme ist es möglich, im dreidimensionalen Raum morphologische Bilder zu erzeugen, aber auch prinzipiell funktionelle Messungen durchzuführen. Es wird auf den Nachdruck „AXIOM Artis FD Systems – DynaCT – A Breakthrough in Interventional 3D Imaging” von Patrick Kurp, ursprünglich erschienen in Medical Solutions, Januar 2005, Seiten 46 bis 51, verwiesen.
  • Die Erzeugung dreidimensionaler morphologischer Bilder und auch die Durchführung funktioneller Messungen ist mit Angiographieanlagen zwar prinzipiell möglich. Auf Grund der geringen Rotationsgeschwindigkeit und der damit verbundenen geringen zeitlichen Auflösungen ist die Anwendbarkeit jedoch nur eingeschränkt. Weiterhin wird eine hohe Strahlungsdosis appliziert, was den wiederholten Einsatz stark einschränkt.
  • Eine Möglichkeit, die geringe Zeitauflösung zu umgehen und dennoch eine hohe räumliche Auflösung zu erhalten, ist die Verwendung von Szenen aus Projektionsaufnahmen, bevorzugt im DSA-Modus (DSA = digitale Subtraktionsangiographie). Beispielhaft wird auf den Fachaufsatz „Estimating Perfusion Using X-Ray Angiography” von Hrvoje Bogunovic und Sven Loncaric, erschienen in Proceedings of the 4th International Symposium on Image and Signal Processing and Analysis, 2005, Seiten 147 bis 150, verwiesen. Die Projektionsaufnahmen entsprechen Projektionsbildern, die eine Vielzahl von Pixeln aufweisen, wobei jedes Pixel einem Ort in einer zweidimensionalen Projektionsebene zugeordnet ist und einen Pixeldatenwert aufweist. In diesem Fachaufsatz wird eine Vorgehensweise beschrieben, perfusionskorrelierte Parameter quantitativ zu berechnen und anzuzeigen. Die Bestimmung der funktionalen Parameter des Untersuchungsobjekts erfolgt für die Pixel der Projektionsaufnahmen in Abhängigkeit von deren Pixeldatenwerten. Die in dem genannten Fachaufsatz gelieferte Lösung ist zum einen noch Einschränkungen unterworfen, die prinzipiell durch die Eliminierung von Gefäßen behoben werden könnten. Ein Weg, wie Gefäße eliminiert werden können, ist in dem Fachaufsatz jedoch nicht angegeben. Zum anderen werden auf Grund der projektiven Natur der Aufnahmen und der typischen Geometrie der Untersuchungsobjekte von den dort verwendeten Röntgenstrahlen unterschiedliche Organpfade durchquert und damit – abhängig vom Ort im Bild – unterschiedlich große Volumina des Untersuchungsobjekts betrachtet. Ohne Berücksichtigung des jeweils betrachteten Volumens ist die quantitative Auswertung daher von Pixel zu Pixel verschieden.
  • Aus dem Fachaufsatz „Integrating X-ray angiography and MRI for endovascular interventions” von T. P. L. Roberts et al., MEDICA MUNDI 44/3, November 2000, Seiten 2 bis 9, ist ein Auswertungsverfahren für Daten eines Untersuchungsobjekts bekannt, wobei die Daten zumindest einen Volumendatensatz des Untersuchungsobjekts und eine Anzahl zweidimensionaler Projektionsbilder des Untersuchungsobjekts umfassen. Der Volumendatensatz weist eine Vielzahl von Voxeln auf. Jedes Voxel ist einem Ort im dreidimensionalen Raum zugeordnet. Jedes Projektionsbild weist eine Vielzahl von Pixeln auf. Jedes Pixel ist einem Ort in einer zweidimensionalen Projektionsebene zugeordnet. Es weist jeweils einen Pixeldatenwert auf. Die Projektionsbilder werden bezüglich des Volumendatensatzes registriert. Für die Pixel der Projektionsbilder wird in Abhängigkeit von deren Pixeldatenwerten mindestens ein funktionaler Parameter des Untersuchungsobjekts bestimmt.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, Möglichkeiten zu schaffen, für jedes Pixel einheitliche und damit von Pixel zu Pixel vergleichbare quantitative Auswertungen einer Anzahl von zweidimensionalen Projektionsbildern des Untersuchungsobjekts vorzunehmen.
  • Die Aufgabe wird verfahrenstechnisch durch ein Auswertungsverfahren mit den Merkmalen des Anspruchs 1, programmtechnisch durch ein Computerprogramm gemäß Anspruch 7 und einrichtungstechnisch durch einen Datenträger gemäß Anspruch 8 und einen Rechner gemäß Anspruch 9 gelöst.
  • Erfindungsgemäß umfassen die auszuwertenden Daten des Untersuchungsobjekts mindestens einen Volumendatensatz und eine Anzahl von Projektionsbildern. Das Gefäßsystem ist im Volumendatensatz segmentiert. Jedem Pixel der Projektionsbilder ist ein Projektionsvolumen zugeordnet, wobei die Projektionsvolumina derart bestimmt sind, dass sie durch die Durchleuchtung auf die Pixel abgebildet werden, denen sie jeweils zugeordnet sind. Ein Teil der segmentierten Gefäße wird selektiert. Anhand der selektierten segmentierten Gefäße wird ein Teilvolumen des Volumendatensatzes bestimmt. Die Projektionsbilder werden bezüglich des Volumendatensatzes registriert. Für die Pixel der Projektionsbilder wird in Abhängigkeit von deren Pixeldatenwerten mindestens ein funktionaler Parameter des Untersuchungsobjekts bestimmt. Für jedes Pixel werden diejenigen Voxel ermittelt, die sowohl innerhalb des Teilvolumens als auch innerhalb des dem betreffenden Pixel zugeordneten Projektionsvolumens liegen, und deren Anzahl und/oder deren Orte bei der Bestimmung des mindestens einen funktionalen Parameters berücksichtigt.
  • Durch diese Vorgehensweise wird es möglich, die Projektionsbilder pixelweise zu normieren, so dass nach der Normierung vergleichbare quantitative Auswertungen möglich sind, wie sie für 3D-Datensätze – z. B. aus dem bereits erwähnten Fachaufsatz „CT-Perfusionsbildgebung bei zerebraler Ischämie” von Matthias König für CT-Schnittbilder und dergleichen bereits bekannt sind.
  • Vorzugsweise werden in den Projektionsbildern zumindest Orte von im Volumendatensatz (14) segmentierten Gefäßen bestimmt. Hierdurch ist es möglich, dass die mit den segmentierten Gefäßen korrespondierenden Pixel bei der Bestimmung des mindestens einen funktionalen Parameters nicht berücksichtigt werden. Durch diese Vorgehensweise kann die Qualität der Auswertung erhöht werden.
  • Alternativ oder zusätzlich ist es möglich, dass anhand der Pixeldatenwerte von mit den segmentierten Gefäßen korrespondierenden Pixeln ein für alle Pixel der Projektionsbilder einheitlicher Einflussfaktor ermittelt wird, der in die Bestimmung des mindestens einen funktionalen Parameters eingeht. Durch diese Vorgehensweise kann die Wirkung beispielsweise eines dem Gefäßsystem zugeführten Kontrastmittels quantifiziert werden.
  • Vorzugsweise werden die Projektionsbilder nach dem Selektieren der segmentierten Gefäße im Volumendatensatz erfasst. In diesem Fall kann eine Positionierung einer Aufnahmeanordnung, mittels derer die Projektionsbilder erfasst werden, in Abhängigkeit davon, welche der segmentierten Gefäße selektiert wurden, bestimmt werden.
  • Die Projektionsbilder können im Einzelfall sogenannte Nativbilder sein. In der Regel wird jedoch jedes Projektionsbild als DSA-Bild eines korrespondierenden Grundbildes und eines Referenzbildes ermittelt.
  • Der Volumendatensatz kann prinzipiell auf beliebige Art und Weise ermittelt worden sein. Entscheidend ist lediglich, dass er zur Verfügung steht. Vorzugsweise jedoch wird der Volumendatensatz anhand einer Anzahl von weiteren Projektionsbildern ermittelt, wobei die weiteren Projektionsbilder mittels derselben Aufnahmeanordnung erfasst werden, mittels derer auch die Projektionsbilder erfasst werden, deren Pixeldatenwerte zur Bestimmung des mindestens einen funktionalen Parameters ausgewertet werden.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen in Verbindung mit den Zeichnungen. Es zeigen in Prinzipdarstellung:
  • 1 eine Durchleuchtungseinrichtung und eine Steuereinrichtung hierfür,
  • 2 ein Ablaufdiagramm,
  • 3 eine möglich Darstellung eines Volumendatensatzes,
  • 4 eine mögliche Abbildungsgeometrie,
  • 5 bis 7 Abbildungsgeometrien mit Projektionsvolumina,
  • 8 und 9 Ablaufdiagramme,
  • 10 und 11 Projektionen des Volumendatensatzes und
  • 12 ein Ablaufdiagramm.
  • Gemäß 1 weist eine Durchleuchtungseinrichtung 1 eine Aufnahmeanordnung 2 auf. Die Aufnahmeanordnung 2 weist eine Strahlungsquelle 3 und einen Strahlungsdetektor 4 auf. Die Strahlungsquelle 3 und der Strahlungsdetektor 4 sind in der Regel um eine Schwenkachse 5 schwenkbar, und zwar derart, dass sie sich bezüglich der Schwenkachse 5 stets diametral gegenüber liegen. Der Strahlungsdetektor 4 ist in der Regel zweidimensional ausgebildet, also als Flächendetektor.
  • Ein Beispiel einer Durchleuchtungseinrichtung 1 gemäß 1 ist eine Angiographieanlage. Sie kann als C-Bogen-Anlage oder – bevorzugt – als Anlage mit einer Roboterträgerplattform ausgebildet sein.
  • Im Bereich der Schwenkachse 5 ist – beispielsweise auf einer Patientenliege 6 – ein Patient 7 angeordnet. Der Patient 7 – bzw. genauer ein Teil des Patienten 7, beispielsweise das Gehirn des Patienten 7 – stellt im vorliegenden Fall das Untersuchungsobjekt 8 dar.
  • Die Durchleuchtungseinrichtung 1 wird von einer Steuereinrichtung 9 gesteuert. Die Steuereinrichtung 9 bewirkt unter anderem
    • – das Positionieren der Aufnahmeanordnung 2,
    • – die Ansteuerung der Strahlungsquelle 3, so dass diese das Untersuchungsobjekt 8 durchdringende Strahlung emittiert,
    • – das Auslesen des Strahlungsdetektors 4, so dass Projektionsbilder B erfasst werden, und
    • – das Positionierender Patientenliege 6.
  • Die Projektionsbilder B, die von dem Strahlungsdetektor 4 erfasst werden, werden zunächst der Steuereinrichtung 9 zugeführt. Im Rahmen der Steuerung der Durchleuchtungseinrichtung 1 erfolgt keine Aufbereitung der Projektionsbilder B. Die Projektionsbilder B müssen jedoch auch aufbereitet und ausgewertet werden. In der Regel ist zu diesem Zweck ein Rechner vorhanden, der mit der Steuereinrichtung 9 datentechnisch gekoppelt ist. Die Steuereinrichtung 9 übermittelt in diesem Fall die vom Strahlungsdetektor 4 erfassten Projektionsbilder B an den Rechner, der seinerseits die weitere Auswertung und Aufbereitung vornimmt. Es ist jedoch alternativ auch möglich, dass die Steuereinrichtung 9 in den Rechner integriert ist. Diese letztgenannte Ausgestaltung ist in 1 dargestellt.
  • In diesem Fall ist der Rechner zugleich als Steuereinrichtung 9 für die Durchleuchtungseinrichtung 1 ausgebildet. Die Begriffe „Rechner” und „Steuereinrichtung” werden daher nachfolgend synonym verwendet. Auch wird für beide Elemente dasselbe Bezugszeichen 9 verwendet.
  • Die Wirkungsweise des Rechners 9 wird durch ein Computerprogramm 10 bestimmt, das dem Rechner 9 über einen Datenträger 11 (beispielsweise eine CD-ROM oder einen USB-Memorystick) oder eine Netzwerkanbindung 12 (beispielsweise das Internet) zugeführt wird und im Rechner 9 gespeichert wird. Das Computerprogramm 10 weist eine Folge von Maschinenbefehlen 13 auf. Die Folge von Maschinenbefehlen 13 ist vom Rechner 9 ausführbar. Ihre Ausführung bewirkt, dass der Rechner 9 in seiner Eigenschaft als Steuereinrichtung für die Durchleuchtungseinrichtung 1 die Durchleuchtungseinrichtung 1 korrekt betreibt. Weiterhin bewirkt das Abarbeiten der Folge von Maschinenbefehlen 13, dass der Rechner 9 in seiner Eigenschaft als Auswertungseinrichtung für die Projektionsbilder B ein Auswertungsverfahren ausführt, das nachfolgend detailliert erläutert werden wird.
  • Auf Grund der Programmierung mit dem Computerprogramm 10 ist die Durchleuchtungseinrichtung 1 in der Regel auf verschiedene Art und Weise betreibbar. Auch die Auswertung der Projektionsbilder B ist in der Regel auf verschiedene Art und Weise möglich. Soweit diese Betriebsweisen und Auswertungsmöglichkeiten im Stand der Technik bekannt sind, können sie auch weiterhin gegeben sein. Zusätzlich sind jedoch die nachfolgend in Verbindung mit den 2 bis 12 beschriebenen Betriebs- und Auswertungsmöglichkeiten gegeben. In diesem Zusammenhang wird darauf hingewiesen, dass die Reihenfolge von Schritten, die nachfolgend in Verbindung mit den 2 bis 12 erwähnt und beschrieben werden, nur dann beibehalten werden muss, wenn diese Schritte zwingend aufeinander aufbauen. Anderenfalls kann die Reihenfolge auch geändert werden.
  • Gemäß 2 wird zunächst in einem Schritt S1 der Patient 7 derart positioniert, dass der relevante Teil des Patienten 7 (d. h. das Untersuchungsobjekt 8 im Sinne der vorliegenden Erfindung) korrekt positioniert ist. Die korrekte Positionierung ist in der Regel dann gegeben, wenn die Schwenkachse 5 zentral im Untersuchungsobjekt 8 verläuft.
  • Der Schritt S1 wird in der Regel teilweise von Menschen unmittelbar, teilweise von der Steuereinrichtung 9 ausgeführt. Insbesondere erfolgt das Positionieren des Patienten 7 auf der Patientenliege 6 in der Regel durch Menschen, sei es durch den Patienten 7 selbst, sei es durch andere Menschen. Das Positionieren der Patientenliege 6 hingegen erfolgt in der Regel durch entsprechende Ansteuerung mittels der Steuereinrichtung 9.
  • Im Rahmen der vorliegenden Erfindung wird ein Volumendatensatz 14 des Untersuchungsobjekts 8 benötigt. Es ist möglich, den Volumendatensatz 14 auf beliebige Weise zu generieren und dem Rechner 9 zuzuführen. Bevorzugt ist jedoch, wenn der Volumendatensatz 14 mittels von der Durchleuchtungseinrichtung 1 erfassten weiteren Projektionsbildern B' ermittelt wird. Zu diesem Zweck steuert die Steuereinrichtung 9 in einem Schritt S2 die Aufnahmeanordnung 2 an, so dass diese um die Schwenkachse 5 verschwenkt wird und während des Verschwenkens vom Strahlungsdetektor 4 die weiteren Projektionsbilder B' erfasst und der Steuereinrichtung 9 zugeführt werden. In einem Schritt S3 ermittelt der Rechner 9 sodann den Volumendatensatz 14. Der Rechner 9 führt die Schritte S2 und S3 vorzugsweise automatisch durch, sowie ihm von einem Anwender A ein entsprechender Startbefehl vorgegeben worden ist.
  • Der Volumendatensatz 14 weist – siehe 3 – eine Vielzahl von Voxeln (= Volumenelementen) 15 auf. Jedes Voxel 15 ist einem Ort im dreidimensionalen Raum zugeordnet. Es weist einen Volumendatenwert auf. Der Volumendatenwert ist in der Regel ein 8-Bit-Wert. Er kann also beispielsweise die Werte 0, 1, 2, ... 255 annehmen. Es sind jedoch auch andere Bitlängen (z. B. 4 Bit oder 12 Bit) denkbar. Der Ort im Raum kann beispielsweise durch drei Raumkoordinaten x, y, z bestimmt sein, die unabhängig voneinander die Werte 0, 1, 2, ... 1023 annehmen können. Die Raumkoordinaten x, y, z sind in der Regel die Koordinaten eines rechtwinkeligen, kartesischen Koordinatensystems.
  • Das Untersuchungsobjekt 8 kann, wie bereits erwähnt, beispielsweise das Gehirn des Patienten 7 sein. Es enthält in diesem Fall – selbstverständlich – die Gehirnmasse selbst, unter anderem aber auch ein Blutgefäßsystem, über das die Gehirnmasse mit Blut versorgt wird. Weiterhin ist das Gehirn von anderem Gewebe (insbesondere dem Schädelknochen) umgeben. In einem Schritt S4 wird vom Rechner 9 vorzugsweise selbsttätig in dem Volumendatensatz 14 das Gefäßsystem segmentiert. Segmentierverfahren sind als solche allgemein bekannt, so dass an dieser Stelle nicht näher auf das Segmentieren eingegangen werden muss.
  • In einem Schritt S5 wird ein Teilvolumen 16 des Volumendatensatzes 14 selektiert. Die Selektion des Teilvolumens 16 erfolgt vorzugsweise durch den Anwender A, wobei der Rechner 9 den Anwender A – vorzugsweise interaktiv – unterstützt. Beispielsweise kann vom Anwender A im Volumendatensatz 14 ein Gefäßast selektiert werden und der Rechner 9 anhand des selektierten Gefäßastes selbsttätig das Teilvolumen 16 bestimmen. Der Schritt S5 wird später noch näher erläutert werden.
  • In einem Schritt S6 positioniert die Steuereinrichtung 9 sodann erneut die Aufnahmeanordnung 2. Diese Positionierung wird im Rahmen des weiteren Verfahrens vorzugsweise beibehalten.
  • Falls die Durchleuchtungseinrichtung 1 eine weitere Aufnahmeanordnung 2' aufweist (in 1 gestrichelt eingezeichnet), die Durchleuchtungseinrichtung 1 also als Biplananlage ausgebildet ist, kann die weitere Aufnahmeanordnung 2' zusammen mit der zuerst erwähnten Aufnahmeanordnung 2 derart positioniert werden, dass die beiden Aufnahmeanordnungen 2, 2' Strahlengänge aufweisen, die relativ zueinander zumindest im Wesentlichen orthogonal sind.
  • In einem Schritt S7 erfasst die Steuereinrichtung 9 mittels des Strahlungsdetektors 4 eine Anzahl von Projektionsbildern B. Der Schritt S7 wird vorzugsweise vom Rechner 9 vollautomatisch durchgeführt. Die Projektionsbilder B werden zeitlich nacheinander bei in der Regel konstanter Positionierung der Aufnahmeanordnung 2 erfasst. Sie bilden daher eine zeitliche Sequenz (Szene). Die zeitliche Folge der Projektionsbilder B zeigt beispielsweise die Ausbreitung eines Kontrastmittels in den Gefäßen und dem die Gefäße umgebenden Gewebe sowie gegebenenfalls das Auswaschen des Kontrastmittels aus dem Gewebe. Ein hierzu erforderliches Applizieren des Kontrastmittels – insbesondere durch intra-arterielle Injektion – ist als solches nicht Bestandteil des erfindungsgemäßen Auswertungsverfahrens.
  • Während der Erfassung der Szene sollten Bildverarbeitungsalgorithmen – mit Ausnahme detektorspezifischer Fehlerkorrekturen – möglichst nicht angewendet werden. Auch sollten die Aufnahmebedingungen (beispielsweise Betriebsspannung und -strom der Röntgenquelle, wenn eine solche als Strahlungsquelle 3 verwendet wird, Taktung des Strahlendetektors 4 usw.) möglichst konstant gehalten werden. Die Einstellungen der Aufnahmebedingungen können beispielsweise in einem speziellen Organprogramm der Steuereinrichtung 9 hinterlegt sein, welches den Anwender A durch den gesamten Ablauf der 2 führt. Das Organprogramm kann beispielsweise auch bevorzugte Projektionsparameter (Angulationen) enthalten und diese bei Bedarf semiautomatisch (d. h. der Anwender A muss nur noch bestätigen) oder vollautomatisch einstellen.
  • Jedes Projektionsbild B weist – siehe 4 – eine Anzahl von Pixeln (Bildelementen) 17 auf. Jedes Pixel 17 ist einem Ort in einer zweidimensionalen Projektionsebene 18 zugeordnet. Der Ort kann beispielsweise durch zwei Flächenkoordinaten x', y' bestimmt sein, die unabhängig voneinander die Werte 0, 1, 2, ... 1023 annehmen können. Jedes Pixel 17 weist einen Pixeldatenwert auf, der – bei einer typischen Bitlänge von 8 Bit – zwischen 0 und 255 liegt.
  • Jedem Pixel 17 ist ein Projektionsvolumen 19 zugeordnet, siehe die 5 und 6. Die Projektionsvolumina 19 sind dadurch bestimmt, dass sie durch die Durchleuchtung des Untersuchungsobjekts 8 auf die Pixel 17 abgebildet werden. Jedes Projektionsvolumen 19 wird hierbei auf das Pixel 17 abgebildet, dem es zugeordnet ist. Die Projektionsvolumina 19 ergeben sich durch die Geometrie und die Positionierung der Aufnahmeanordnung 2. 5 zeigt beispielhaft zwei Projektionsvolumina 19 für den. Fall einer perspektivischen Projektion, 6 zwei Projektionsvolumina 19 für den Fall einer Parallelprojektion.
  • In einem Schritt S8 werden die Projektionsbilder B bezüglich des Volumendatensatzes 14 registriert. Die Registrierung von Projektionsbildern B relativ zu einem Volumendatensatz 14 ist an sich bekannt und muss daher nicht näher erläutert werden. Soweit möglich und erforderlich – beispielsweise wegen leichter Bildbewegungen –, können im Rahmen des Schrittes S8 auch die Projektionsbilder B relativ zueinander registriert werden. Der Schritt S8 wird vorzugsweise vom Rechner 9 vollautomatisch oder interaktiv durch den Anwender 1 durchgeführt.
  • Im vorliegenden Fall wurde der Volumendatensatz 14 anhand einer Anzahl von weiteren Projektionsbildern B' ermittelt, wobei die weiteren Projektionsbilder B' zur Ermittlung des Volumendatensatzes und die Projektionsbilder B der Szene mittels derselben Aufnahmeanordnung 2 erfasst wurden. Diese Vorgehensweise ist besonders vorteilhaft, weil die Registrierung einfacher ist. Insbesondere kann vollautomatisch aus der Positionierung der Aufnahmeanordnung 2 im Schritt S6 die Registrierung ermittelt werden, wenn das Untersuchungsobjekt 8 zwischen den Schritten S1 und S7 nicht bewegt wird.
  • Auf Grund der Registrierung sind die Lage der Projektionsebene 18 und die virtuelle Position des Strahlungsdetektors 4 sowie die virtuelle Abbildungsgeometrie im Volumendatensatz 14 bekannt. Auf Grund der Registrierung der Projektionsbilder B bezüglich des Volumendatensatzes 14 ist es daher – siehe 7 – möglich, für jedes Pixel 17 der Projektionsbilder B auch dessen zugeordnetes Projektionsvolumen 19 in dem Volumendatensatz 14 abzubilden und mit dem selektierten Teilvolumen 16 zu schneiden. Es ist somit möglich, in einem Schritt S9 für jedes Pixel 17 der Projektionsbilder B diejenigen Voxel 15 des Volumendatensatzes 14 zu ermitteln, die sowohl innerhalb des dem jeweiligen Pixel 17 zugeordneten Projektionsvolumens 19 als auch innerhalb des Teilvolumens 16 liegen. In der Folge kann für das jeweilige Pixel 17 der Projektionsbilder B im Rahmen des Schrittes S9 ein Korrekturfaktor k bestimmt werden, anhand dessen der Pixeldatenwert des betreffenden Pixels 17 modifiziert wird. Der Schritt S9 wird vorzugsweise vom Rechner 9 vollautomatisch durchgeführt.
  • Zur Ermittlung des Korrekturfaktors k wird im einfachsten Fall lediglich die Anzahl der Voxel 15 ermittelt, die im Schnitt des Teilvolumens 16 und des betreffenden Projektionsvolumens 19 enthalten sind. Die Anzahl ist – in erster Näherung – proportional zur lokalen Dicke des Teilvolumens 16 (in Projektionsrichtung) gesehen. In erster Näherung kann daher auch die lokale Dicke des Teilvolumens 16 zur Ermittlung des Korrekturfaktors k herangezogen werden. Diese letztgenannte Vorgehensweise ist insbesondere bei einer Parallelprojektion (siehe 6) von Vorteil. Sie führt jedoch auch bei einer perspektivischen Projektion (siehe 5) zu erheblich verbesserten Ergebnissen. Die lokale Dicke des Teilvolumens 16 kann linear (insbesondere bei einer Parallelprojektion) oder stärker als linear (insbesondere bei einer perspektivischen Projektion) in die Bestimmung des Korrekturfaktors k eingehen.
  • Alternativ ist es möglich, zusätzlich zur Anzahl der Voxel 15 auch den Ort der Voxel 15 innerhalb der Abbildungsgeometrie mit in Betracht zu ziehen. Diese Vorgehensweise kann insbesondere bei perspektivischen Projektionen von Vorteil sein.
  • In einem Schritt S10 bestimmt der Rechner 9 für die Pixel 17 der Projektionsbilder B in Abhängigkeit von deren Pixeldatenwerten mindestens einen funktionalen Parameter des Untersuchungsobjekts 8. Beispielsweise kann der Rechner 9 die Perfusion bzw. den TIMI-Blushgrade, die mean-transit-time, das Blutvolumen usw. bestimmen. Der Rechner 9 führt den Schritt S10 vorzugsweise vollautomatisch aus. Zur Bestimmung der oben erwähnten funktionalen Parameter – und auch zur Bestimmung anderer funktionaler Parameter zieht der Rechner 9 jedoch vorzugsweise nicht die ursprünglichen Pixeldatenwerte der Projektionsbilder B heran, sondern die gemäß dem Schritt S9 modifizierten Pixeldatenwerte. Auf Grund dieser Modifikation sind die Pixeldatenwerte normiert, so dass nicht nur qualitative, sondern auch quantitative Auswertungen der Projektionsbilder B korrekt ausführbar sind. Derartige quantitative Aussagen waren bisher nur bei dreidimensionalen Volumendatensätzen (genauer: Sequenzen von Volumendatensätzen) korrekt möglich.
  • Nach der Ermittlung der funktionalen Parameter sind selbstverständlich Visualisierungen der Ermittlungsergebnisse möglich. Dieser Schritt ist als solcher bekannt und bleibt gegenüber dem Stand der Technik unverändert. Auf ihn wird daher nicht näher eingegangen.
  • Nachfolgend werden in Verbindung mit den 8 bis 12 einige Modifikationen und Ergänzungen des Verfahrens von 2 erläutert, auf Grund derer die Vorgehensweise von 2 optimiert werden kann. Die einzelnen Modifikationen und Ergänzungen sind prinzipiell unabhängig voneinander realisierbar, sofern sie nicht zwingend aufeinander aufbauen. Auch sind sie nach Bedarf miteinander kombinierbar, sofern sie sich nicht zwangsweise gegenseitig ausschließen.
  • Gemäß 8 können zwischen den Schritten S8 und S10 Schritte S11 und S12 eingefügt sein. Die Schritte S11 und S12 können hierbei entsprechend 8 vor dem Schritt S9 eingefügt sein. Sie könnten alternativ jedoch auch nach dem Schritt S9 eingefügt sein.
  • Im Schritt S11 bestimmt der Rechner 9 in den Projektionsbildern B die Orte der Gefäße in den Projektionsbildern B. Der Rechner 9 führt den Schritt S11 vorzugsweise vollautomatisch aus.
  • Beispielsweise kann pro Pixel 17 bzw. pro Gruppe von Pixeln 17 anhand des zeitlichen Verlaufs der modifizierten oder der unmodifizierten Pixeldatenwerte entschieden werden, ob dem jeweiligen Pixel 17 bzw. der betreffenden Gruppe von Pixeln 17 der Typ „Gefäß”, der Typ „Hintergrund” oder der Typ „Perfusionsbereich” zugeordnet wird. Derartige Vorgehensweisen sind beispielsweise in den älteren Anmeldungen 10 2005 039 189.3, 10 2006 025 422.8 und 10 2006 025 423.6 der Anmelderin detailliert erläutert.
  • Alternativ ist es beispielsweise möglich, im Rahmen des Schrittes S11 die im Schritt S4 von 2 segmentierten Gefäße in die Projektionsbilder B abzubilden. Diese Abbildung ist möglich, weil die Projektionsbilder B bezüglich des Volumendatensatzes 14 registriert sind, vergleiche Schritt S8 der 2 und 8. Die Abbildung der Gefäße in die Projektionsbilder B kann in manchen Fällen auf Gefäße beschränkt werden, die im selektierten Teilvolumen 16 liegen bzw. vor einer etwaigen Ausblendung der Gefäße aus dem selektierten Teilvolumen 16 im selektierten Teilvolumen 16 liegen würden oder einen Abstand zum selektierten Teilvolumen 16 aufweisen, der unterhalb eines Maximalabstands liegt. Auch sind beliebige andere Methoden zur Segmentierung der Gefäße in den Projektionsbildern B anwendbar.
  • Zusätzlich kann im Rahmen des Schrittes S11 in den Projektionsbildern B – beispielsweise durch Abbildung des Teilvolumens 16 als Ganzes – eine ROI (= region of interest) bestimmt werden. Dadurch können gegebenenfalls andere, nicht relevante Bereiche der Projektionsbilder B (insbesondere Hintergrund, d. h. nicht perfundierte Bereiche) aus der Auswertung ausgenommen werden.
  • Im Schritt S12 werden in den Projektionsbildern B die Pixel 17, welche mit den Gefäßen korrespondieren, ausgeblendet. Diese Pixel 17 werden daher im Rahmen des Schrittes S10 nicht mit berücksichtigt. Der Schritt S12 wird vom Rechner 9 vorzugsweise ebenfalls vollautomatisch ausgeführt.
  • Alternativ oder zusätzlich ist es gemäß 8 möglich, den Schritt S11 mit Schritten S16 bis S18 zu kombinieren. Der Schritt S12 kann in diesem Fall entfallen, er kann jedoch alternativ weiterhin vorhanden sein.
  • Im Schritt S16 wird ein einzelnes Gefäß selektiert, das sowohl im Volumendatensatz 14 als auch in den Projektionsbildern B enthalten ist. Die Selektion kann beispielsweise auf Grund einer Anwendereingabe erfolgen. Vorzugsweise wird ein Gefäß selektiert, das im Wesentlichen parallel zur Projektionsebene 18 der Projektionsbilder B verläuft und in Richtung auf die Projektionsebene 18 zu eine möglichst große Dicke aufweist. Der Ort des selektierten Gefäßes in den Projektionsbildern B wird markiert.
  • Im Schritt S17 wird die Dicke des im Schritt S16 selektierten Gefäßes ermittelt. Im Schritt S18 wird anhand des zeitlichen Verlaufs der unmodifizierten Pixeldatenwerte der Pixel 17, deren Orte mit dem Ort des selektierten Gefäßes korrespondieren, und der Dicke des Gefäßes ein Einflussfaktor e ermittelt. Der Einflussfaktor e wird im Rahmen des Schrittes S10 bei der Bestimmung des mindestens einen funktionalen Parameters berücksichtigt. Er ist für alle Pixel 17 der Projektionsbilder B einheitlich. Der Rechner 9 führt die Schritte S17 und S18 vorzugsweise vollautomatisch aus.
  • Wie bereits in Verbindung mit dem Schritt S5 erwähnt, wird in der Regel die Positionierung der Aufnahmeanordnung 2 zur Erfassung der Sequenz von Projektionsbildern B erst nach der Selektion des Teilvolumens 16 ermittelt. Weiterhin kann das Teilvolumen 16 anhand des Gefäßsystems bzw. anhand der selektierten Gefäße ermittelt werden. Dies wird in Verbindung mit den 9 bis 11 näher erläutert.
  • Gemäß 9 kann der Schritt S5 in Schritte S21 bis S23 aufgeteilt sein. Im Schritt S21 nimmt der Rechner 9 eine Selektion von Gefäßen des Gefäßsystems entgegen. Beispielsweise kann dem Rechner 9 – siehe 10 – vom Anwender A im Volumendatensatz 14 eine Stelle eines Gefäßes vorgegeben werden. Wenn die Fließrichtung des Blutes im Gefäßsystem bekannt ist – und das ist in der Regel der Fall –, kann der Rechner 9 beispielsweise selbsttätig alle in Fließrichtung nachfolgenden Gefäße selektieren. Alternativ kann der Anwender A dem Rechner 9 auch Anfang und Ende eines Gefäßes vorgeben und so einen einzelnen Gefäßabschnitt selektieren. Wenn im letztgenannten Fall das selektierte Gefäß in dem selektierten Abschnitt eine Verzweigung aufweist, kann – je nach Ausgestaltung des erfindungsgemäßen Verfahrens – der an der Verzweigung abgehende Abschnitt selektiert oder nicht selektiert sein.
  • Im Schritt S22 bestimmt der Rechner 9, ausgehend von den selektierten Gefäßen, einen Umgebungsbereich 20. Beispielsweise kann der Rechner 9 die selektierten Gefäße im Volumendatensatz 14 „anwachsen” lassen, siehe 11. Das Ausmaß des Anwachsens kann für alle selektierten Gefäße das Gleiche sein, beispielsweise ein Anwachsen um einen Millimeter oder um einen Zentimeter. Es kann jedoch auch von der lokalen Dicke der selektierten Gefäße abhängen, beispielsweise 200% der lokalen Dicke betragen. Wege zur Ermittlung des Umgebungsbereichs 20 sind Fachleuten allgemein bekannt. Der Rechner 9 führt den Schritt S22 vorzugsweise vollautomatisch aus.
  • Ausgehend vom Umgebungsbereich 20 bestimmt der Rechner 9 im Schritt S23 – vorzugsweise vollautomatisch – das selektierte Teilvolumen 16. Beispielsweise kann der Rechner 9 – siehe erneut 11 – in an sich bekannter Weise die minimale konvexe Hülle ermitteln, welche den Umgebungsbereich 20 vollständig enthält. Die konvexe Hülle kann in diesem Fall mit dem Teilvolumen 16 korrespondieren.
  • 9 zeigt auch eine mögliche Ausgestaltung des erfindungsgemäßen Auswertungsverfahrens, bei dem zwischen die Schritte S21 und S6 ein Schritt S26 eingefügt ist. Im Schritt S26 bestimmt der Rechner 9 selbsttätig eine Positionierung der Aufnahmeanordnung 2. Je nach Anwendungsfall wird die Positionierung beispielsweise derart bestimmt, dass die selektierten Gefäße sich möglichst wenig überdecken und im Wesentlichen möglichst parallel zur Projektionsebene 18 verlaufen. Alternativ kann die Positionierung der Aufnahmeanordnung 2 derart bestimmt werden, dass das Teilvolumen 16 möglichst wenig von Gefäßen überdeckt wird. Verfahren zur Bestimmung geeigneter Positionierungen der Aufnahmeanordnung 2 sind als solche bekannt. Der Schritt S26 wird vom Rechner 9 vorzugsweise vollautomatisch ausgeführt. Im Schritt S6 wird die Aufnahmeanordnung 2 vorzugsweise semi- oder vollautomatisch zu der im Schritt S26 bestimmten Positionierung verfahren.
  • Wenn das Untersuchungsobjekt 8 zwischen der Erfassung der Projektionsbilder B', anhand derer der Volumendatensatz 14 ermittelt wurde, und der Erfassung der Projektionsbilder B, welche die Szene von Projektionsbildern B bilden, nicht bewegt wurde, ist es möglich, die optimale Positionierung der Aufnahmeanordnung 2 exakt zu bestimmen. Auch die Registrierung ist in diesem Fall einfacher. In aller Regel ist es zum Positionieren der Aufnahmeanordnung 2 jedoch ausreichend, die Positionierung nur in etwa optimal vorzunehmen. Eine Abweichung von der optimalen Positionierung um mehrere Grad ist in der Regel ohne weiteres tolerierbar.
  • Es ist weiterhin zwar möglich, aber nicht erforderlich, dass die Steuereinrichtung 9 die vom Rechner 9 ermittelte Positionierung der Aufnahmeanordnung 2 automatisch einstellt. Es reicht aus, sie an den Anwender A der Durchleuchtungseinrichtung 1 auszugeben, so dass der Anwender A sie – gegebenenfalls unter Vorgabe von Verfahrbefehlen an die Steuereinrichtung 9 – selbst vornehmen kann.
  • Im Rahmen der obenstehenden Erläuterungen wurde angenommen, dass die Projektionsbilder B Nativbilder sind. Dies ist zwar möglich. Bevorzugt ist jedoch die Verwendung von DSA-Bildern. In diesem Fall ist der Schritt S7 von 2 gemäß 12 wie folgt ausgestaltet:
    Gemäß 12 wird in einem Schritt S31 eine Sequenz von Grundbildern erfasst. Die Grundbilder sind Nativbilder. In einem Schritt S32 wird von jedem Grundbild ein Referenzbild subtrahiert und so ein DSA-Bild ermittelt. Das Referenzbild ist ebenfalls ein Nativbild. Es kann eines der Grundbilder sein und einheitlich für alle anderen Grundbilder bestimmt sein (DSA im klassischen Sinne). Es ist alternativ jedoch möglich, die Referenzbilder individuell für jedes Grundbild einzeln zu bestimmen, beispielsweise wenn dual-energy-Bilder erfasst werden. Die letztgenannte Vorgehensweise ist insbesondere dann vorzuziehen, wenn das Untersuchungsobjekt 8 ein bewegtes Untersuchungsobjekt ist, beispielsweise ein schlagendes Herz.
  • Im Falle eines sich periodisch bewegenden Untersuchungsobjekts 8 – als Beispiel kann wieder ein schlagendes Herz genannt werden – kann weiterhin alternativ eine prospektive Triggerung bei der Erfassung der Projektionsbilder B, B' oder ein retrospektive Auswahl aus erfassten Projektionsbildern B, B' erfolgen, um nur phasengleiche Projektionsbilder B, B' des Untersuchungsobjekts 8 zu verwerten. Weiterhin muss auch der Volumendatensatz 14 in diesem Fall das Untersuchungsobjekt 8 in der korrekten Phasenlage zeigen.
  • Mittels des erfindungsgemäßen Auswertungsverfahrens und der zugehörigen programm- und einrichtungstechnischen Gegenstände ist erstmals eine korrekte quantitative Auswertung von zweidimensionalen Projektionsbildern B möglich. Diese Vorgehensweise ist insbesondere deshalb von Vorteil, weil sie erheblich schneller als die Datenakquisition für dreidimensionale Volumendatensätze ist, eine erheblich kleinere Strahlungsdosis benötigt und mittels Angiographiesystemen möglich ist. Auch ist das erfindungsgemäße Auswertungsverfahren nicht auf Anwendungen im medizinischen Bereich beschränkt, wenngleich diese Anwendung die Häufigste sein wird.
  • Die obige Beschreibung dient ausschließlich der Erläuterung der vorliegenden Erfindung. Der Schutzumfang der vorliegenden Erfindung soll hingegen ausschließlich durch die beigefügten Ansprüche bestimmt sein.

Claims (10)

  1. Auswertungsverfahren für Daten (14, B) eines Untersuchungsobjekts (8), das ein Gefäßsystem mit Gefäßen und dessen Umgebung enthält, – wobei die Daten (14, B) zumindest einen Volumendatensatz (14) des Untersuchungsobjekts (8) und eine Anzahl zweidimensionaler Projektionsbilder (B) des Untersuchungsobjekts (8) umfassen, – wobei der Volumendatensatz (14) eine Vielzahl von Voxeln (15) aufweist und jedes Voxel (15) einem Ort im dreidimensionalen Raum zugeordnet ist, – wobei das Gefäßsystem im Volumendatensatz (14) segmentiert ist, – wobei jedes Projektionsbild (B) eine Vielzahl von Pixeln (17) aufweist, jedes Pixel (17) einem Ort in einer zweidimensionalen Projektionsebene (18) zugeordnet ist und einen Pixeldatenwert aufweist und jedem Pixel (17) ein Projektionsvolumen (19) zugeordnet ist, – wobei die Projektionsvolumina (19) dadurch bestimmt sind, dass sie durch die Durchleuchtung auf die Pixel (17) abgebildet werden, denen sie jeweils zugeordnet sind, – wobei ein Teil der segmentierten Gefäße selektiert wird und anhand der selektierten segmentierten Gefäße ein Teilvolumen (16) des Volumendatensatzes (14) bestimmt wird, – wobei die Projektionsbilder (B) bezüglich des Volumendatensatzes (14) registriert werden, – wobei für die Pixel (17) der Projektionsbilder (B) in Abhängigkeit von deren Pixeldatenwerten mindestens ein funktionaler Parameter des Untersuchungsobjekts (8) bestimmt wird, – wobei für jedes Pixel (17) diejenigen Voxel (15) ermittelt werden, die sowohl innerhalb des Teilvolumens (16) als auch innerhalb des dem betreffenden Pixel (17) zugeordneten Projektionsvolumens (19) liegen, und deren Anzahl und/oder deren Orte bei der Bestimmung des mindestens einen funktionalen Parameters berücksichtigt werden.
  2. Auswertungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass in den Projektionsbildern (B) zumindest Orte von im Volumendatensatz (14) segmentierten Gefäßen bestimmt werden und dass die mit den segmentierten Gefäßen korrespondierenden Pixel (17) bei der Bestimmung des mindestens einen funktionalen Parameters nicht berücksichtigt werden.
  3. Auswertungsverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in den Projektionsbildern (B) zumindest Orte von im Volumendatensatz (14) segmentierten Gefäßen bestimmt werden und dass anhand der Pixeldatenwerte von mit den segmentierten Gefäßen korrespondierenden Pixeln (17) ein für alle Pixel (17) der Projektionsbilder (B) einheitlicher Einflussfaktor (e) ermittelt wird, der in die Bestimmung des mindestens einen funktionalen Parameters eingeht.
  4. Auswertungsverfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die Projektionsbilder (B) nach dem Selektieren der segmentierten Gefäße erfasst werden und dass eine Positionierung einer Aufnahmeanordnung (2), mittels derer die Projektionsbilder (B) erfasst werden, in Abhängigkeit davon, welche der segmentierten Gefäße selektiert wurden, bestimmt wird.
  5. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass jedes Projektionsbild (B) als DSA-Bild eines korrespondierenden Grundbildes und eines Referenzbildes ermittelt wird.
  6. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Volumendatensatz (14) anhand einer Anzahl von weiteren Projektionsbildern (B') ermittelt wird und dass die Projektionsbilder (B) und die weiteren Projektionsbilder (B') mittels derselben Aufnahmeanordnung (2) erfasst werden.
  7. Computerprogramm, das eine Folge von Maschinenbefehlen (13) umfasst, die bewirkt, dass ein Rechner (9) ein Auswertungsverfahren nach einem der obigen Ansprüche ausführt, wenn er die Folge von Maschinenbefehlen (13) abarbeitet.
  8. Datenträger, auf dem ein Computerprogramm (10) nach Anspruch 7 gespeichert ist.
  9. Rechner, in dem ein Computerprogramm (10) nach Anspruch 7 gespeichert ist, das vom Rechner abarbeitbar ist.
  10. Rechner nach Anspruch 9, dadurch gekennzeichnet, dass er als Steuereinrichtung für eine Durchleuchtungseinrichtung (1) ausgebildet ist.
DE102006049865A 2006-10-23 2006-10-23 Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern Expired - Fee Related DE102006049865B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102006049865A DE102006049865B4 (de) 2006-10-23 2006-10-23 Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern
US11/973,246 US7945082B2 (en) 2006-10-23 2007-10-05 Analysis method for data of an examination object, featuring correlation of a volume data record with a number of projection images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006049865A DE102006049865B4 (de) 2006-10-23 2006-10-23 Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern

Publications (2)

Publication Number Publication Date
DE102006049865A1 DE102006049865A1 (de) 2008-04-24
DE102006049865B4 true DE102006049865B4 (de) 2013-03-14

Family

ID=39198471

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006049865A Expired - Fee Related DE102006049865B4 (de) 2006-10-23 2006-10-23 Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern

Country Status (2)

Country Link
US (1) US7945082B2 (de)
DE (1) DE102006049865B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007033716B4 (de) * 2007-07-19 2012-03-01 Siemens Ag Röntgenbiplananlage
DE102008036658A1 (de) * 2008-08-06 2010-02-11 Siemens Aktiengesellschaft Bearbeitungsverfahren für ein zweidimensionales Projektionsbild eines Untersuchungsobjekts mit Gefäßeliminierung
BRPI0917609A2 (pt) * 2008-12-10 2019-10-15 Koninklijke Philips Electrnics N. V. ''sistema para executar a análise de vasos, estação de trabalho para imagens médicas, método para executar a análise de vasos, e, produto de programa de computador''
JP5559642B2 (ja) * 2010-08-30 2014-07-23 富士フイルム株式会社 手術支援装置、手術支援方法および手術支援プログラム
US8867809B2 (en) 2011-08-18 2014-10-21 Imorphics Limited Image processing method
EP2570079B1 (de) * 2011-09-13 2017-06-14 Pie Medical Imaging BV Verfahren und Vorrichtung zur Bestimmung der optimalen 3D-Rekonstruktion eines Objekts
KR102033600B1 (ko) 2012-10-19 2019-11-11 삼성전자주식회사 3차원 스테레오스코픽 영상을 제공하는 의료 정보 측정 방법 및 장치
AU2016379175A1 (en) 2015-12-21 2018-07-05 The Regents Of The University Of California Perfusion digital subtraction angiography
US10319119B2 (en) * 2016-03-08 2019-06-11 Siemens Healthcare Gmbh Methods and systems for accelerated reading of a 3D medical volume
KR101770282B1 (ko) * 2016-04-26 2017-08-23 서울대학교병원 실시간 입체시를 위한 x선 투시 장치
EP4020390A1 (de) * 2020-12-22 2022-06-29 Koninklijke Philips N.V. Periphere perfusionsmessung

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5602891A (en) * 1995-11-13 1997-02-11 Beth Israel Imaging apparatus and method with compensation for object motion
US6292683B1 (en) * 1999-05-18 2001-09-18 General Electric Company Method and apparatus for tracking motion in MR images
AU2002240192A1 (en) * 2001-01-30 2002-08-12 R. Christopher Decharms Methods for physiological monitoring, training, exercise and regulation
WO2004068406A2 (en) * 2003-01-30 2004-08-12 Chase Medical, L.P. A method and system for image processing and contour assessment
WO2005011500A1 (en) * 2003-08-04 2005-02-10 Koninklijke Philips Electronics N.V. Mapping the coronary arteries on a sphere
US7444011B2 (en) * 2004-02-10 2008-10-28 University Of Chicago Imaging system performing substantially exact reconstruction and using non-traditional trajectories

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BOGUNOVIC H., LONCARI S.: "Estimating perfusion using X-ray angiography", IEEE, 15-17 Sept. 2005, Proceedings of the 4th International Symposium on Image and Signal Processing and Analysis, 2005 (ISPA 2005), pp. 147-150 *
ROBERTS T.P.L., MARTIN A., ARENSON R.L., DILLON W.P., HIGGINS C.B.: "Integrating X-ray angiography and MRI for endovascular interventions", Netherlands, Philips Medical Systems, Nov. 2000, MEDICA MUNDI, Vol. 44/3, pp. 2-9, ISSN 0025-7664 *

Also Published As

Publication number Publication date
US7945082B2 (en) 2011-05-17
DE102006049865A1 (de) 2008-04-24
US20080095423A1 (en) 2008-04-24

Similar Documents

Publication Publication Date Title
DE102006049865B4 (de) Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern
DE602004002939T2 (de) Methode zur dreidimensionalen modellierung von rohrförmigen strukturen
DE102006045423B4 (de) 07.09.07Verfahren zur Nachbearbeitung eines dreidimensionalen Bilddatensatzes einer Gefäßstruktur
DE102012215001B4 (de) Verfahren zur 2D-3D-Registrierung eines Modells mit einem Röntgenbild
DE102004006188A1 (de) Verfahren zum Bestimmen physikalischer Parameter körperlicher Strukturen
DE102013218819B3 (de) Verfahren zur Reduzierung von Artefakten in einem Bilddatensatz und Röntgeneinrichtung
DE102014201134A1 (de) Verfahren und Vorrichtung zur Erzeugung eines 2-D-Projektionsbildes eines Gefäßsystems
DE102012215294B4 (de) Verfahren zum Erzeugen eines Volumenmodells von einem Herz und zugehörige C-Bogen-Röntgenanlage
DE102009015386A1 (de) Verfahren und Vorrichtung zur Erzeugung eines funktionellen Datensatzes eines perfundierten Bereichs des menschlichen oder tierischen Körpers
DE102008026035A1 (de) Betriebsverfahren für eine verschwenkbare Polyplan-Bildgebungsanlage zur Abbildung eines sich bewegenden Untersuchungsobjekts
DE102005044653A1 (de) Verfahren und Vorrichtung zur Rekonstruktion eines dreidimensionalen Bildvolumens aus zweidimensionalen Projektionsbildern
EP2242023B1 (de) Verfahren zur bewegungskompensierten Rekonstruktion eines dreidimensionalen endgültigen Bilddatensatzes
DE102013202313A1 (de) Verfahren und Vorrichtung zur Korrektur von Bewegungsartefakten bei einem computertomographischen Bild
EP3210537B1 (de) Erstellung eines dreidimensionalen abbilds eines körperteils durch ein röntgengerät
DE102008045276A1 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage
DE102006056679B4 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten, insbesondere in Echtzeit
DE102010062975B4 (de) Verfahren zur Erzeugung einer vierdimensionalen Darstellung eines einer periodischen Bewegung unterworfenen Zielgebiets eines Körpers
EP3287077B1 (de) Angulationsplanung für eine dreidimensionale angiographie
DE102014201556A1 (de) Verfahren zur Ermittlung eines Gewebeparameters, Röntgeneinrichtung und Computerprogramm
DE102009031139B4 (de) Ermittlungsverfahren für eine Neu-Initialisierung einer zeitlichen Sequenz von Durchleuchtungsbildern (B(t)) eines Untersuchungsbereichs eines Untersuchungsobjekts und zugehörige Gegenstände
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102009021521B4 (de) Verfahren zur bewegungskompensierten Rekonstruktion eines dreidimensionalen Bilddatensatzes und Röntgeneinrichtung
DE102006014882A1 (de) Verfahren zum Abbilden des Myokards eines Infarktpatienten und Verfahren zum Unterstützen eines therapeutischen Eingriffs am Herzen
EP3413317B1 (de) Bereitstellen eines medizinischen bildes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R019 Grant decision by federal patent court
R020 Patent grant now final

Effective date: 20130615

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee