DE102005039189A1 - Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände - Google Patents

Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände Download PDF

Info

Publication number
DE102005039189A1
DE102005039189A1 DE200510039189 DE102005039189A DE102005039189A1 DE 102005039189 A1 DE102005039189 A1 DE 102005039189A1 DE 200510039189 DE200510039189 DE 200510039189 DE 102005039189 A DE102005039189 A DE 102005039189A DE 102005039189 A1 DE102005039189 A1 DE 102005039189A1
Authority
DE
Germany
Prior art keywords
image
evaluation
computer
evaluation method
projection images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE200510039189
Other languages
English (en)
Other versions
DE102005039189B4 (de
Inventor
Estelle Dr. Camus
Thomas Dr. Redel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE200510039189 priority Critical patent/DE102005039189B4/de
Priority to US11/505,552 priority patent/US7729525B2/en
Priority to CN2006101388683A priority patent/CN1915185B/zh
Priority to JP2006223448A priority patent/JP5036250B2/ja
Publication of DE102005039189A1 publication Critical patent/DE102005039189A1/de
Application granted granted Critical
Publication of DE102005039189B4 publication Critical patent/DE102005039189B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/507Clinical applications involving determination of haemodynamic parameters, e.g. perfusion CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

2-D-Projektionsbilder (B) zeigen den zeitlichen Verlauf der Verteilung eines Kontrastmittels in einem Untersuchungsobjekt (3). Das Untersuchungsobjekt (3) enthält ein Gefäßsystem und dessen Umgebung. Jedes Projektionsbild (B) weist eine Vielzahl von Pixeln (9) mit Pixelwerten auf. Die Pixelwerte miteinander korrespondierender Pixel (9) der Projektionsbilder (B) sind durch zumindest im Wesentlichen örtlich gleiche Bereiche des Untersuchungsobjekts (3) bestimmt. Anhand der Projektionsbilder (B) ermittelt ein Rechner (8) ein 2-D-Auswertungsbild (A), das eine Vielzahl von Pixeln (9) aufweist, die mit denen der Projektionsbilder (B) korrespondieren. Das Auswertungsbild (A) gibt der Rechner (8) über ein Sichtgerät (16) an einen Anwender (6) aus. Zumindest in einem Teilbereich (18) des Auswertungsbildes (A) ordnet der Rechner (8) jedem Pixel (9) einen Typ zu, der dafür charakteristisch ist, ob das jeweilige Pixel (9) einem Gefäß des Gefäßsystems, einem perfundierten Teil der Umgebung eines Gefäßes des Gefäßsystems oder einem nicht perfundierten Teil der Umgebung eines Gefäßes des Gefäßsystems entspricht. Die Zuordnung des Typs nimmt der Rechner (8) anhand des zeitlichen Verlaufs der Pixelwerte der Projektionsbilder (B) vor.

Description

  • Die vorliegende Erfindung betrifft ein Bildauswertungsverfahren für zweidimensionale Projektionsbilder, die den zeitlichen Verlauf der Verteilung eines Kontrastmittels in einem Untersuchungsobjekt zeigen, wobei das Untersuchungsobjekt ein Gefäßsystem und dessen Umgebung enthält, wobei jedes Projektionsbild eine Vielzahl von Pixeln mit Pixelwerten aufweist, wobei die Pixelwerte miteinander korrespondierender Pixel der Projektionsbilder durch zumindest im Wesentlichen örtlich gleiche Bereiche des Untersuchungsobjekts bestimmt sind.
  • Die vorliegende Erfindung betrifft weiterhin einen Datenträger mit einem auf dem Datenträger gespeicherten Computerprogramm zur Durchführung eines derartigen Bildauswertungsverfahrens und einen Rechner mit einem Massenspeicher, in dem ein Computerprogramm hinterlegt ist, so dass der Rechner bei Aufruf des Computerprogramms ein derartiges Bildauswertungsverfahren ausführt.
  • Derartige Bildauswertungsverfahren und die entsprechenden Gegenstände sind bekannt.
  • So ist beispielsweise aus dem Fachaufsatz „Quantitative Analyse von koronarangiographischen Bildfolgen zur Bestimmung der Myokardperfusion" von Urban Malsch et al., erschienen in „Bildverarbeitung für die Medizin 2003 – Algorithmen – Systeme – Anwendungen", Springer Verlag, Seiten 81 bis 85, ein derartiges Bildauswertungsverfahren bekannt. Bei diesem Bildauswertungsverfahren ermittelt ein Rechner anhand der Projektionsbilder ein zweidimensionales Auswertungsbild, das eine Vielzahl von Pixeln aufweist, und gibt das Auswertungsbild über ein Sichtgerät an einen Anwender aus. Die Pixel des Auswertungsbildes korrespondieren mit denen der Projektionsbilder. Der Rechner nimmt anhand des zeitlichen Verlaufs der Pi xelwerte der Projektionsbilder eine Zuordnung eines Pixelwerts zu den Pixeln des Auswertungsbildes vor, wobei der Pixelwert für den Zeitpunkt der maximalen Kontraständerung charakteristisch ist.
  • Die Lehre des oben genannten Fachaufsatzes wird im Rahmen von angiographischen Untersuchungen der Herzkranzgefäße des menschlichen Herzens beschrieben. Diese Art der Untersuchung ist heute eines der wichtigsten diagnostischen Hilfsmittel der Kardiologie. Zusätzliche Informationen wie die Bestimmung der Flussgeschwindigkeit oder die Myokardperfusion sind weitere Informationen, die mittels der Angiographie prinzipiell gewonnen werden können. Die wesentliche diagnostische Aussage ist hierbei die Perfusion des Herzmuskels.
  • Es haben sich heute auch einige weitere nicht invasive Untersuchungsmethoden wie PET, SPECT, MR oder kontrastmittelunterstützter Ultraschall etabliert. Diese Untersuchungsmethoden bieten die Möglichkeit, neben anderen Parametern auch den Perfusionsstatus des Myokardiums quantifizieren zu können. Generell werden diese Methoden bei einer stabilen Angina pectoris oder zur Risikoeinschätzung nach einem Myokardinfarkt durchgeführt.
  • Der Auslöser von Myokardinfarkten, Arteriosklerose, ist nicht nur eine chronische und langsam fortschreitende Erkrankung, sondern auch eine ausgesprochen dynamische Erkrankung. Die Gefäßwand wird hierbei nicht nur durch Fetteinlagerungen, Wucherungen von glatten Muskelzellen und bindegewebeartigen Umbau mit Kalkeinlagerungen steifer und dicker. Vielmehr bestimmen auch aktive entzündliche Prozesse mit Auflösung des Gewebes durch Matrixproteinasen, apoptotischem Zelluntergang und Neovaskularisation die Instabilität des Belages (Plaque). Eine Plaqueruptur in einer Koronararterie nebst Exposition des hochaktiven arteriosklerotischen Materials gegenüber dem strömenden Blut lösen im Extremfall akut einen Koronarverschluss und in der Folge einen Myokardinfarkt aus.
  • In den letzten Jahren haben sich Hinweise und Belege gemehrt, dass eine koronare Plaqueruptur nicht immer zu einem Gefäßverschluss und damit einem Myokardinfarkt, sondern auch zu einer Embolisation des arteriosklerotischen Materials in die koronare Mikrozirkulation führen kann. Eine solche koronare Mikroembolisation kann spontan, aber auch im Rahmen koronarer Interventionen auftreten. Insbesondere kann eine koronare Intervention auch eine Mikroembolisation auslösen.
  • Für eine Beurteilung des therapeutischen Ergebnisses einer Intervention wäre es daher vorteilhaft, die Verbesserung der Perfusion bzw. das Auftreten von Mikroembolisation und Mikroinfarkten noch während der eigentlichen Intervention kontrollieren zu können. Vorteilhaft wäre es somit, wenn schon im Katheterlabor zu anderen Diagnoseparametern eine Quantifizierung der Perfusion hinzuträte. Denn damit wäre es möglich, alle relevanten Informationen in einer Untersuchung zu erlangen und somit zu einer besseren Therapiekontrolle zu kommen.
  • Die Quantifizierung der Durchblutung des Myokardiums mittels angiographischer Verfahren ist jedoch problematisch. Denn die angiographisch beobachtbaren Herzgefäße weisen einen Durchmesser von knapp einem Millimeter oder mehr auf. Diese beobachtbaren Gefäße enden aber in Millionen von winzigen Kapillargefäßen, welche Durchmesser von nur wenigen Mikrometern aufweisen. Die Flussdynamik und Verteilung in den Kapillargefäßen bestimmt jedoch letztlich die Blutversorgung des Herzmuskels. Der Rückschluss von der makroskopischen Durchblutung auf die Dynamik der Durchblutung in den Kapillargefäßen ist daher streng genommen nicht zulässig, auch wenn sie oftmals vorgenommen wird.
  • Zur Erfassung der Durchblutung des Myokardiums sind verschiedene Verfahren bekannt, insbesondere die Kontrast-Echokardiographie, die magnetresonanztomographische Diagnostik und SPECT.
  • Die echokardiographische Bestimmung der globalen und der regionalen Funktion ist ein fester Bestandteil der nichtinvasiven kardialen Funktionsdiagnose. Die dynamische und pharmakologische Stressechokardiographie werden insbesondere bei der Ischämie und bei der Vitalitätsdiagnostik eingesetzt und tragen zur Indikationsstellung revaskularisierender Maßnahmen bei chronischen koronaren Herzerkrankungen bei. Kontrastspezifische Bildgebungsverfahren ermöglichen dabei seit kurzem eine Signalverstärkung des intramyokardialen Blutpools, auf dessen Basis Aussagen zur Herzmuskeldurchblutung getroffen werden können. Aktuelle Echtzeitverfahren ermöglichen sogar die gleichzeitige Beurteilung von Wandbewegung und Myokarddurchblutung in hoher räumlicher Auflösung.
  • Magnetresonanztomographische Diagnoseverfahren für koronare Herzerkrankungen basieren auf dem Nachweis pharmakologisch induzierter Durchblutungs- oder Wandbewegungsstörungen. Zur Beurteilung der Myokardperfusion ist heute die kontrastmittelgestützte First-pass-Perfusionsmessung in Ruhe und unter pharmakologischer Belastung die bevorzugte Vorgehensweise. Hier werden Medikamente eingesetzt, die zu einer Erweiterung der nicht betroffenen Koronararterien führen und somit auf Grund des erhöhten Blutflusses in diesen erweiterten Koronararterien eine Verstärkung der geringeren Perfusion im Versorgungsgebiet einer stenosierten Koronararterie führen.
  • SPECT ist ein nuklearmedizinisches Verfahren. Hierfür wird heutzutage als Kontrastmittel Tc-99m neben Thallium-201-Chlorid eingesetzt. Die Myokard-Perfusionsszintigraphie erfasst die Durchblutung des Herzmuskels unter ergometrischer und medikamentöser Belastung sowie in Ruhe. Dabei lassen sich reversible Ischämien von permanenten Durchblutungsstörungen oder Myokardnarben differenzieren. Voraussetzung für dieses Verfahren ist eine optimierte tomographische Untersuchungstechnik.
  • Der akute Myokardinfarkt stellt eine kardiologische Notfallsituation dar, in der eine rasche Diagnose und Therapie er forderlich ist. In dieser Notfallsituation ist eine Untersuchung des Patienten mittels magnetresonanztomographischer Verfahren, SPECT-Verfahren oder der Kontrastechokardiographie in aller Regel nicht möglich. Weitere Probleme ergeben sich, wenn aus anderen Gründen nicht vorab eine Perfusionsmessung durchgeführt werden konnte. In allen diesen Fällen würde die angiographisch basierte Herzperfusionsbildgebung ein wichtiges Hilfsmittel darstellen.
  • Bei der angiographisch basierten Herzperfusionsbildgebung werden lange Aufnahmen gemacht, wobei die Aufnahmen solange dauern, bis das Kontrastmittel durch die Herzkranzgefäße hindurchgeflossen ist und im Herzmuskel selbst sichtbar wird. Diese letztgenannte Phase wird als „Myocardial Blush" bezeichnet. Die Beurteilung des „Myocardial Blush" dient dazu, Aussagen zur Gefäßversorgung des Herzens zu machen und beispielsweise den Erfolg von Therapien und/oder ein Risikoprofil für den Patienten einzuschätzen.
  • Um die Blutflussdynamik in großen Gefäßen und in den Kapillargefäßen messbar und damit vergleichbar zu machen, sind verschiedene Gradationssysteme bekannt, die das Kontinuum der Verhältnisse in diskrete Klassen einteilen. Manche dieser Klassifikationen beschreiben den makroskopischen Blutkreislauf, andere den kapillaren Blutkreislauf. Die meistgebrauchten Klassifikationen wurden von der Wissenschaftsorganisation „thrombolysis in myocardial infarction" (TIMI) erarbeitet. Diese Klassifikationen gelten als Standard. In multizentrischen Studien, in denen es besonders auf reproduzierbare und vergleichbare Ergebnisse ankommt, werden die TIMI-Klassifikationen häufig verwendet. Die Klassifikationen sind jedoch komplex und nur zeitaufwendig anwendbar. In der klinischen Routinearbeit werden sie daher in der Regel nicht eingesetzt.
  • Das im Stand der Technik bei Weitem am Häufigsten eingesetzte Verfahren ist die visuelle Einschätzung des „Mycardial Blush" am Bildschirm. Diese Vorgehensweise wird für multizentrische Studien oftmals verwendet. Voraussetzung für diese Vorgehens weise ist, dass die angiographische Aufnahme lang genug ist, um den Eintrag und das Auswaschen des Kontrastmittels sehen zu können. Die visuelle Einschätzung erfordert aber viel Erfahrung und wird praktisch nur von so genannten TIMI-Blush-Experten durchgeführt.
  • Es sind auch verschiedene Vorgehensweisen bekannt, in denen versucht wird, diese visuelle, subjektiv-persönliche Einschätzung rechnergestützt vorzunehmen. Ein Beispiel findet sich in dem oben genannten Fachaufsatz von Urban Malsch et al..
  • Die Vorgehensweise des oben genannten Fachaufsatzes stellt bereits einen guten Ansatz dar, weist aber noch Mängel auf. So ist es insbesondere erforderlich, die Gefäße des Gefäßsystems in den Projektionsbildern zu identifizieren, um diese Gefäße bei der Auswertung des „Myocardial Blush" auszublenden. Auch ist es bei der Vorgehensweise des Fachaufsatzes erforderlich, mit DSA-Bildern zu arbeiten. Dadurch besteht eine deutliche Gefahr von Artefakten, zu deren Vermeidung wiederum rechenintensive Verfahren zur Bewegungskompensation erforderlich sind.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein Bildauswertungsverfahren und die hiermit korrespondierenden Gegenstände zu schaffen, mittels derer anhand der Projektionsbilder selbst auf einfache Weise eine Identifikation des Gefäßsystems möglich ist.
  • Die Aufgabe wird für ein Bildauswertungsverfahren dadurch gelöst,
    • – dass ein Rechner anhand der Projektionsbilder ein zweidimensionales Auswertungsbild ermittelt, das eine Vielzahl von Pixeln aufweist, und über ein Sichtgerät an einen Anwender ausgibt,
    • – dass die Pixel des Auswertungsbildes mit denen der Projektionsbilder korrespondieren,
    • – dass der Rechner zumindest in einem Teilbereich des Auswertungsbildes jedem Pixel einen Typ zuordnet, der dafür charakteristisch ist, ob das jeweilige Pixel einem Gefäß des Gefäßsystems, einem perfundierten Teil der Umgebung eines Gefäßes des Gefäßsystems oder einem nicht perfundierten Teil der Umgebung eines Gefäßes des Gefäßsystems entspricht, und
    • – dass der Rechner die Zuordnung des Typs anhand des zeitlichen Verlaufs der Pixelwerte der Projektionsbilder vornimmt.
  • Im Gegensatz zum bekannten Stand der Technik ist es somit nicht mehr erforderlich, dass der Benutzer vorgibt, welcher Bereich der Projektionsbilder dem Myokardium entspricht. Die Typzuordnung kann vielmehr aus den Projektionsbildern selbst heraus erfolgen.
  • Hiermit korrespondierend wird die Aufgabe für den Datenträger bzw. den Rechner dadurch gelöst, dass auf dem Datenträger ein Computerprogramm zur Durchführung eines solchen Bildauswertungsverfahrens gespeichert ist bzw. im Massenspeicher des Rechners ein solches Computerprogramm hinterlegt ist, so dass der Rechner bei Aufruf des Computerprogramms dieses Bildauswertungsverfahren ausführt.
  • Das erfindungsgemäße Bildauswertungsverfahren ist universell anwendbar. Es ist also insbesondere auch dann anwendbar, wenn das Untersuchungsobjekt sich nicht bewegt. Ein Beispiel eines derartigen Untersuchungsobjekts ist das Gehirn des Menschen, in dem die gleichen Durchblutungsprobleme wie beim menschlichen Herzen auftreten können. Diese Durchblutungsprobleme sind, wenn sie akut auftreten, unter dem Begriff Schlaganfall bekannt. In aller Regel ist das Untersuchungsobjekt aber ein sich iterativ bewegendes Untersuchungsobjekt. In diesem Fall wird zunächst eine Serie von Bildern erfasst und dem Rechner zugeführt. Jedem Bild der Serie ist eine Phaseninformation über das Untersuchungsobjekt zugeordnet. Die Projektionsbilder werden dann aus dieser Serie ausgewählt, wobei darauf ge achtet wird, dass die den Projektionsbildern zugeordneten Phaseninformationen maximal um eine Phasenschranke von einer Referenzphase abweichen. Sowohl die Referenzphase als auch die Phasenschranke können dem Rechner dabei vom Anwender vorgegeben werden.
  • Vorzugsweise ermittelt der Rechner die Anzahl der Projektionsbilder und gibt sie über das Sichtgerät an den Anwender aus. Für den Anwender ist somit eine visuelle Kontrolle möglich, ob die Referenzphase und/oder die Phasenschranke gut bestimmt sind. Gegebenenfalls kann hierzu auch die Gesamtzahl der erfassten Iterationen des Untersuchungsobjekts zusätzlich mit ausgegeben werden.
  • Nach der Auswahl der Projektionsbilder ist es möglich, dass der Anwender eines der Projektionsbilder auswählt und der Rechner das ausgewählte Projektionsbild zusammen mit der diesem Projektionsbild zugeordneten Phaseninformation und/oder zusammen mit der Abweichung der diesem Projektionsbild zugeordneten Phaseninformation von der Referenzphase über das Sichtgerät an den Anwender ausgibt. Dadurch ist für den Anwender ersichtlich, wie groß die Abweichung der Phaseninformation dieses Projektionsbildes von der Referenzphase ist.
  • Der Teilbereich ist vorzugsweise in einem der Projektionsbilder oder im Auswertungsbild als solcher markiert, beispielsweise mittels einer schwarzen Umrandung. Denn dann ist für den Anwender ohne weiteres erkennbar, welcher Bereich als Teilbereich vorgegeben ist.
  • Der Teilbereich kann vorbestimmt sein. Vorzugsweise aber wird er dem Rechner vom Anwender vorgegeben. Denn dann arbeitet das erfindungsgemäße Bildauswertungsverfahren besonders flexibel.
  • Vorzugsweise nimmt der Rechner die Typzuordnung anhand des zeitlichen Verlaufs der Pixelwerte derjenigen Pixel der Projektionsbilder vor, die in einem durch das jeweilige Pixel des Auswertungsbildes bestimmten zweidimensionalen Typauswertungskern der Projektionsbilder liegen. Denn dann ist ein etwaiger Rauscheinfluss minimierbar.
  • Die Typzuordnung ist besonders einfach, wenn der Rechner zumindest den Teilbereich des Auswertungsbildes in Typparzellen von jeweils mehreren Pixeln unterteilt und die Typzuordnung parzellenweise vornimmt. Denn dann reduziert sich der Rechenaufwand für die Typzuordnung um den Faktor N, wenn N die Anzahl an Pixeln pro Typparzelle ist. Als Typparzellen werden üblicherweise kleine Rechtecke (insbesondere Quadrate), kleine regelmäßige Dreiecke oder kleine regelmäßige Sechsecke herangezogen.
  • Vorzugsweise ermittelt der Rechner für jedes Projektionsbild den gewichteten oder ungewichteten Mittelwert des Typauswertungskerns und nimmt die Typzuordnung anhand des zeitlichen Verlaufs des Mittelwerts vor. Denn dann ist das Bildauswertungsverfahren zum Einen relativ einfach, zum Anderen sehr zuverlässig und robust. Der Typauswertungskern kann dabei insbesondere mit der jeweiligen Typparzelle korrespondieren.
  • Das erfindungsgemäße Bildauswertungsverfahren arbeitet besonders ergebnisoptimal, wenn der Rechner eine maximale Änderung des Mittelwerts des Typauswertungskerns, bezogen auf den Mittelwert des zeitlich ersten Typauswertungskerns, ermittelt und dem jeweiligen Pixel des Auswertungsbildes den Typ „nicht perfundierter Teil der Umgebung" zuordnet, wenn die maximale Änderung kleiner als ein erster Schwellwert ist. Anderenfalls wird dem jeweiligen Pixel des Auswertungsbildes entweder der Typ „perfundierter Teil der Umgebung" oder der Typ „Gefäß" zugeordnet.
  • Der erste Schwellwert kann fest und für alle Pixel der Gleiche sein. Vorzugsweise aber hängt der erste Schwellwert von einer Eingabe des Anwenders und/oder vom Mittelwert des zeitlich ersten Typauswertungskerns ab. Beispielsweise kann als erster Schwellwert ein Prozentsatz des Mittelwerts des zeit lich ersten Typauswertungskerns herangezogen werden (Abhängigkeit vom Mittelwert des zeitlich ersten Typauswertungskerns), wobei der Prozentsatz von der Eingabe des Anwenders abhängt.
  • Vorzugsweise ermittelt der Rechner, wenn die maximale Änderung des Mittelwerts den ersten Schwellwert übersteigt, das zeitlich früheste Projektionsbild, bei dem die Differenz des Mittelwerts des Typauswertungskerns dieses Projektionsbildes und des Mittelwerts des Typauswertungskerns des zeitlich ersten Projektionsbildes den ersten Schwellwert übersteigt. Je nach dem, ob der Zeitpunkt des zeitlich frühesten Projektionsbildes vor oder nach einem Grenzzeitpunkt liegt, ordnet der Rechner dann dem jeweiligen Pixel des Auswertungsbildes den Typ „Gefäß" bzw. „perfundierter Teil der Umgebung" zu.
  • Es ist möglich, dass der Grenzzeitpunkt fest vorgegeben ist. Vorzugsweise aber hängt der Grenzzeitpunkt von einer Eingabe des Anwenders ab.
  • Vorzugsweise ermittelt der Rechner das dem Grenzzeitpunkt zeitlich am nächsten liegende Projektionsbild und gibt es über das Sichtgerät an den Anwender aus. Denn dadurch hat der Anwender die Möglichkeit zur visuellen Kontrolle des Grenzzeitpunkts.
  • Vorzugsweise ermittelt der Rechner bei denjenigen der Pixel des Auswertungsbildes, denen er den Typ „perfundierter Teil der Umgebung" zugeordnet hat, auch ein Ausmaß einer Perfusion des korrespondierenden Bereichs des Untersuchungsobjekts und ordnet dem jeweiligen Pixel dieses Ausmaß zu.
  • Beispielsweise ist es möglich, dass der Rechner die Ausmaßzuordnung anhand des zeitlichen Verlaufs der Pixelwerte derjenigen Pixel der Projektionsbilder vornimmt, die in einem durch das jeweilige Pixel des Auswertungsbildes bestimmten zweidimensionalen Grund-Ausmaßauswertungskern der Projektionsbilder liegen.
  • Wenn der Rechner zumindest den Teilbereich des Auswertungsbildes in Ausmaßparzellen von jeweils mehreren Pixeln unterteilt und die Ausmaßzuordnung parzellenweise vornimmt, lässt sich der Rechenaufwand zur Ausmaßzuordnung reduzieren.
  • Das erfindungsgemäße Bildauswertungsverfahren lässt sich besonders einfach implementieren, wenn der Rechner für jedes Projektionsbild den gewichteten oder ungewichteten Mittelwert des Grund-Ausmaßauswertungskerns ermittelt und die Ausmaßzuordnung anhand des zeitlichen Verlaufs des Mittelwertes vornimmt.
  • Vorzugsweise korrespondiert der Grund-Ausmaßauswertungskern mit der jeweiligen Ausmaßparzelle.
  • Vorzugsweise ermittelt der Rechner das Ausmaß der Perfusion anhand mindestens einer der folgenden Größen:
    • – zeitliche Dauer, während derer eine Änderung des Mittelwerts den ersten Schwellwert übersteigt;
    • – zeitliche Dauer des Anstiegs der Änderung des Mittelwerts;
    • – zeitliche Dauer des Abfalls der Änderung des Mittelwerts;
    • – maximale Änderung des Mittelwerts;
    • – Zeitpunkt der maximalen Änderung des Mittelwerts;
    • – Zeitdauer bis zu Beginn der Änderung des Mittelwerts.
  • Vorzugsweise ermittelt der Rechner auch einen Wert, der für eine Dauer charakteristisch ist, während derer die Änderung des Mittelwerts einen zweiten Schwellwert übersteigt, und vergleicht diesen Wert mit einer Minimalzeit. Denn dann ist es möglich, dass der Rechner für die korrespondierenden Projektionsbilder deren jeweilige Grund-Ausmaßauswertungskerne unberücksichtigt lässt, wenn die Dauer unterhalb einer Minimaldauer liegt. Insbesondere ist es damit möglich, Korrekturen zu ergreifen, wenn die Änderung des Mittelwerts nur für ein oder zwei der Projektionsbilder den zweiten Schwellwert übersteigt. Denn dann handelt es sich mit hoher Wahrscheinlichkeit um „Ausreißer".
  • Wenn der Rechner Grund-Ausmaßauswertungskerne von Projektionsbildern unberücksichtigt lässt, ermittelt der Rechner vorzugsweise anhand derjenigen Grund-Ausmaßauswertungskerne, die zeitlich unmittelbar vor und/oder nach den unberücksichtigten Grund-Ausmaßauswertungskernen liegen, Ersatz-Ausmaßauswertungskerne, ersetzt die unberücksichtigten Grund-Ausmaßauswertungskerne durch die Ersatz-Ausmaßauswertungskerne und nimmt sodann erneut die Ausmaßzuordnung vor.
  • Wenn der Grund-Ausmaßauswertungskern mit dem Typauswertungskern identisch ist, vereinfacht sich das erfindungsgemäße Bildauswertungsverfahren.
  • Eine sehr genaue und dennoch rechenzeitoptimierte Auswertung der Projektionsbilder ergibt sich, wenn der Rechner
    • – diejenigen Pixel des Auswertungsbildes ermittelt, denen er den Typ „perfundierter Teil der Umgebung" zugeordnet hat, und die innerhalb eines vorbestimmten Mindestabstands ausschließlich von Pixeln umgeben sind, denen er ebenfalls den Typ „perfundierter Teil der Umgebung" zugeordnet hat, und
    • – anhand des zeitlichen Verlaufs der Pixelwerte derjenigen Pixel der Projektionsbilder, die in einem durch das jeweilige Pixel des Auswertungsbildes bestimmten zweidimensionalen Zusatz-Ausmaßauswertungskern der Projektionsbilder liegen, eine erneute Ausmaßzuordnung vornimmt, wobei der jeweilige Zusatz-Ausmaßauswertungskern im korrespondierenden Grund-Ausmaßauswertungskern enthalten ist.
  • Vorzugsweise setzt der Rechner zumindest das Ausmaß der Perfusion anhand einer Zuordnungsvorschrift in Farbwerte um und gibt das Auswertungsbild in Form einer entsprechend farbcodierten Darstellung über das Sichtgerät an den Anwender aus. Denn dann ist das Ausmaß der Perfusion für den Anwender intuitiv besonders leicht erfassbar. Gegebenenfalls können dabei auch die beiden anderen Typen „nicht perfundierter Teil der Umgebung" und „Gefäß" entsprechend farbcodiert werden.
  • Wenn der Rechner die Zuordnungsvorschrift zusammen mit der farbcodierten Darstellung über das Sichtgerät an den Anwender ausgibt, ist das Ausmaß der Perfusion für den Anwender einfacher zuordenbar. Beispielsweise kann die Zuordnungsvorschrift in das Auswertungsbild eingeblendet werden oder neben dem Auswertungsbild – beispielsweise in einem eigenen Fenster – dargestellt werden.
  • Das erfindungsgemäße Bildauswertungsverfahren kann noch weiter optimiert werden, wenn eines der Projektionsbilder zu einem Referenzbild bestimmt wird, der Rechner einen Referenzbereich der Projektionsbilder mit einem korrespondierenden Referenzbereich des Referenzbildes vergleicht, der Rechner anhand des Vergleichs eine für alle Pixel des jeweiligen Projektionsbildes gültige Transformation der Pixelwerte bestimmt, so dass der Mittelwert der Pixelwerte des Referenzbereich des transformierten Projektionsbildes und der Mittelwert der Pixelwerte des Referenzbereichs des Referenzbildes in einer vorbestimmten funktionalen Beziehung stehen, und der Rechner die Pixelwerte des jeweiligen Projektionsbildes entsprechend dieser Transformation transformiert. Denn dann können auch Intensitätsunterschiede in den Projektionsbildern, die sich auf Grund nicht konstant gehaltener Betriebsparameter bei der Erfassung der Projektionsbilder ergeben, zumindest teilweise kompensiert werden.
  • Vorzugsweise blendet der Rechner den Referenzbereich in eines der Projektionsbilder oder in das Auswertungsbild ein. Denn dann ist für den Anwender sofort intuitiv erfassbar, anhand welchen Bildbereiches die Transformation bestimmt wird. Auf Grund seines intellektuellen Verständnisses des dargestellten Bildes kann der Anwender daher beurteilen, ob der Referenzbereich ordnungsgemäß bestimmt ist.
  • Es ist möglich, dass der Rechner den Referenzbereich selbsttätig ermittelt. Beispielsweise ist es möglich, dass der Rechner den Referenzbereich anhand der Pixel des Auswertungsbildes ermittelt, denen er den Typ „nicht perfundierter Teil der Umgebung" zugeordnet hat. Alternativ oder zusätzlich kann der Rechner bei der Ermittlung des Referenzbereichs Informationen über die den Projektionsbildern zu Grunde liegende Aufnahmegeometrie und den Einspeiseort des Kontrastmittels in das Untersuchungsobjekt berücksichtigen.
  • Alternativ zur Ermittlung des Referenzbereichs durch den Rechner ist es selbstverständlich auch möglich, dass der Referenzbereich dem Rechner vom Anwender vorgegeben wird.
  • Wenn der Anwender dem Rechner eine Anwahl eines Pixels bzw. einer Gruppe von Pixeln des Auswertungsbildes vorgibt und der Rechner daraufhin den zeitlichen Verlauf des Mittelwerts der Pixelwerte derjenigen Bereiche der Projektionsbilder ermittelt und über das Sichtgerät an den Anwender ausgibt, anhand derer der Rechner das Ausmaß der Perfusion des angewählten Pixels bzw. der angewählten Gruppe von Pixeln bestimmt hat, ist für den Anwender auf einfache Weise eine noch weitergehende und detailliertere Auswertung der Projektionsbilder möglich.
  • Vorzugsweise gibt der Rechner zumindest die Bestimmungskriterien, anhand derer er die Typzuordnung zumindest des Teilbereich des Auswertungsbildes bestimmt hat, zusammen mit dem Auswertungsbild über das Sichtgerät an den Anwender aus. Denn auf diese Weise ist eine einfache Kontrolle durch den Anwender möglich. Vorzugsweise sind die Bestimmungskriterien vom Anwender dabei interaktiv änderbar und ermittelt der Rechner bei einer Änderung der Bestimmungskriterien das Auswertungsbild neu. Denn dann ist eine einfach Optimierung der Bestimmungskriterien durch den Anwender möglich.
  • Wenn der Rechner eines der Projektionsbilder in das Auswertungsbild einblendet, ist die Lage der Gefäße auf einfache Weise erkennbar. Dadurch ist für den Benutzer auf einfache Weise überprüfbar, ob der Rechner die Typzuordnung korrekt vorgenommen hat.
  • Wenn der Rechner auf Grund einer entsprechenden Aufforderung durch den Anwender anhand des Auswertungsbildes selbsttätig einen Report erstellt, das Auswertungsbild und den Report den Projektionsbildern zuordnet und die Projektionsbilder, das Auswertungsbild und den Report als Einheit archiviert, wird der Anwender von dieser Arbeit entlastet.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung eines Ausführungsbeispiels in Verbindung mit den Zeichnungen. Dabei zeigen in Prinzipdarstellung:
  • 1 ein Blockschaltbild einer Aufnahmeanordnung, eines Steuerrechners und einer Auswertungseinrichtung,
  • 2 ein Ablaufdiagramm,
  • 3 beispielhaft ein Projektionsbild,
  • 4 ein Blockschaltbild einer Auswertungseinrichtung,
  • 5 und 6 Ablaufdiagramme,
  • 7 ein Auswertungsbild,
  • 8 das Auswertungsbild von 7 mit einem überlagerten Projektionsbild,
  • 9 ein Ablaufdiagramm,
  • 10 ein aus einem Projektionsbild abgeleitetes Zwischenbild,
  • 11 bis 13 zeitliche Verläufe von Mittelwerten,
  • 14 ein Ablaufdiagramm,
  • 15 einen zeitlichen Verlauf eines Mittelwerts,
  • 16 einen weiteren zeitlichen Verlauf eines Mittelwerts und
  • 17 bis 20 Ablaufdiagramme.
  • Gemäß 1 wird eine Aufnahmeanordnung 1 von einer Steuereinrichtung 2 gesteuert. Mittels der Aufnahmeanordnung 1 werden Bilder B eines Untersuchungsobjekts 3 erfasst. Im vorliegenden Fall, in dem das Untersuchungsobjekt 3 ein Mensch ist, werden beispielsweise Bilder B des Herzens oder des Gehirns des Menschen 3 erfasst.
  • Zum Erfassen der Bilder B weist die Aufnahmeanordnung 1 eine Strahlungsquelle 4, hier z. B. eine Röntgenquelle 4, und einen korrespondierenden Detektor 5 auf.
  • Zum Erfassen der Bilder B werden gemäß 2 in einem Schritt S1 zunächst das Untersuchungsobjekt 3 und die Aufnahmeanordnung 1 positioniert. Die Positionierung kann insbesondere davon abhängig sein, welche Region (Herz, Gehirn, ...) des Untersuchungsobjekts 3 erfasst werden soll und welcher Teil der Region speziell relevant ist, beispielsweise welche Koronararterie (RCA, LAD, LCX) beobachtet werden soll. Der Schritt S1 kann alternativ rein manuell durch einen Anwender 6, vollautomatisch von der Steuereinrichtung 2 oder aber vom Anwender 6 mit Unterstützung durch die Steuereinrichtung 2 vorgenommen werden.
  • Die Vornahme des Schrittes S1 kann mit einer Aufnahme von Kontrollbildern verbunden sein. Dies ist aber im Rahmen der vorliegenden Erfindung nicht relevant und wird daher nicht näher erläutert.
  • Sodann wartet die Steuereinrichtung 2 in einem Schritt S2 ein Startsignal des Anwenders 6 ab. Nach Erhalt des Startsignals erfasst der Detektor 5 ein Bild B des Untersuchungsobjekts 3 und führt es der Steuereinrichtung 2 zu. Die Steuereinrichtung 2 nimmt das Bild B in einem Schritt S3 entgegen und fügt dem Bild B einen korrespondierenden Erfassungszeitpunkt t hinzu. Falls das Untersuchungsobjekt 3 bzw. der relevante Teil des Untersuchungsobjekts 3 sich iterierend bewegen sollte, nimmt die Steuereinrichtung 2 in einem Schritt S4 weiterhin von einer entsprechenden Erfassungseinrichtung 7 ein Phasensignal des Untersuchungsobjekts 3 entgegen. Ebenfalls im Rahmen des Schrittes S4 ermittelt die Steuereinrichtung 3 dann eine entsprechende Phaseninformation φ und fügt die Phaseninformation φ ebenfalls dem erfassten Bild B hinzu. Beispielsweise kann die Steuereinrichtung 2 im Rahmen des Schrittes S4 ein EKG-Signal entgegen nehmen und daraus die Phaseninformation φ ableiten. Auch kann die Steuereinrichtung 2 die Aufnahmeanordnung 1 anhand des zugeführten Phasensignals gegebenenfalls derart ansteuern, dass bereits die Erfassung der Bilder B nur zu einer oder mehreren vorbestimmten Phasenlagen des Untersuchungsobjekts 3 erfolgt, beispielsweise nur 0,3 und 0,6 Sekunden nach der R-Zacke des EKG-Signals.
  • Im Regelfall wird das Untersuchungsobjekt 3 in seiner iterierenden Bewegung nicht von außen beeinflusst. Falls beispielsweise das Herz des Menschen 3 aber sehr unregelmäßig schlägt, kann gezielt eine externe Anregung des Herzens mit einem Herzschrittmacher erfolgen, um einen regelmäßigen Herzschlag zu erzwingen.
  • In einem Schritt S5 korrigiert die Steuereinrichtung 2 das erfasste Bild B. Die Steuereinrichtung 2 korrigiert das erfasste Bild B dabei vorzugsweise ausschließlich um detektorspezifische Korrekturen, führt aber keine weitergehende Bildaufbereitung durch. Beispielsweise wendet sie keinerlei Rauschminderungsverfahren an.
  • In einem Schritt S6 wird geprüft, ob eine Injektion eines Kontrastmittels erfolgen soll. Falls diese Prüfung bejaht wird, wird in einem Schritt S7 das Kontrastmittel in das Untersuchungsobjekt 3 injiziert. Die Schritte S6 und S7 können – analog zum Schritt S1 – vom Anwender 6 selbst vorgenommen werden, von der Steuereinrichtung 2 vollautomatisch vorgenommen werden oder aber zwar vom Anwender 6 vorgenommen werden, wobei ihn jedoch die Steuereinrichtung 2 unterstützt.
  • In einem Schritt S8 prüft die Steuereinrichtung 2, ob das Erfassen der Bilder B beendet werden soll. Wenn dies nicht der Fall ist, geht die Steuereinrichtung 2 zum Schritt S3 zurück. Anderenfalls übermittelt sie in einem Schritt S9 die erfassten, vorzugsweise um detektorspezifische Korrekturen korrigierten Bilder B, deren Erfassungszeitpunkte t sowie gegebenenfalls auch deren Phaseninformationen φ an eine Auswertungseinrichtung 8. Alternativ zur Übermittlung der Bilder B, der Erfassungszeitpunkte t und der Phaseninformationen φ im Rahmen des nachgeordneten Schrittes S9 könnte das Übermitteln natürlich auch bildweise, also zwischen den Schritten S5 und S6 erfolgen.
  • Das oben stehend skizzierte Verfahren wurde nunmehr grob geschildert, da es im Rahmen der vorliegenden Erfindung nur von untergeordneter Bedeutung ist. So wurde beispielsweise die – manuelle, vollautomatische oder rechnerunterstützte – Einstellung der Aufnahmeparameter der Aufnahmeanordnung 1 (Betriebsspannung der Strahlungsquelle 4, Bildrate, Bildvorverarbeitung, Positionierung, ...) als selbstverständlich vorausgesetzt. Auch eine gegebenenfalls erforderliche Kalibrierung der Aufnahmeanordnung 1 kann vorgenommen werden. Auch versteht sich von selbst, dass die Erfassung der Bilder B über einen hinreichend langen Zeitraum erfolgen muss, nämlich beginnend vor der Injektion des Kontrastmittels und endend nach dem Auswaschen des Kontrastmittels.
  • 3 zeigt beispielhaft eines der erfassten Bilder B. Aus 3 ist sofort ersichtlich, dass das Bild B zweidimensional ist und somit eine Vielzahl von Pixeln 9 enthält. Die Auflösung des Bildes B ist sogar so hoch, dass im dargestellten Bild B die einzelnen Pixel 9 nicht mehr erkennbar sind. Lediglich rein beispielhaft ist eines der Pixel 9 mit dem Bezugszeichen 9 markiert. Jedes Pixel 9 weist einen Pixelwert auf, der z. B. zwischen 0 und 255 (= 28 – 1) liegt.
  • Aus 3 ist weiterhin erkennbar, dass das Untersuchungsobjekt 3 ein Gefäßsystem und dessen Umgebung enthält. Auf Grund des Umstands, dass die Bilder B in ihrer Gesamtheit eine zeitliche Folge bilden, zeigen die Bilder B somit zugleich auch den zeitlichen Verlauf der Verteilung des Kontrastmittels in dem Untersuchungsobjekt 3.
  • Wenn das Untersuchungsobjekt 3 während der Erfassung der Bilder B unbewegt war (beispielsweise weil Bilder B vom Gehirn des Menschen 3 aufgenommen wurden) oder auf Grund einer entsprechenden Triggerung der Aufnahme (beispielsweise stets 0,6 Sekunden nach der R-Zacke des EKG) die Bilder B das Untersuchungsobjekt 3 stets in der gleichen Phasenlage zeigen, ist bereits durch die Bilderfassung als solche gewährleistet, dass die Pixelwerte miteinander korrespondierender Pixel 9 der Bilder B durch zumindest im Wesentlichen örtlich gleiche Bereiche des Untersuchungsobjekts 3 bestimmt sind. In diesem Fall können alle erfassten Bilder B zu Projektionsbildern B im Sinne der nachfolgenden Ausführungen bestimmt werden. Anderenfalls muss eine geeignete Auswahl erfolgen. Dies wird nachstehend in Verbindung mit den 4 und 5 näher erläutert.
  • Gemäß 4 weist die Auswertungseinrichtung 8 – die prinzipiell mit der Steuereinrichtung 2 identisch sein kann – unter anderem eine Recheneinheit 10 und einen Massenspeicher 11 auf. Im Massenspeicher 11 ist ein Computerprogramm 12 hinterlegt. Bei Aufruf des Computerprogramms 12 führt die Auswertungseinrichtung 8 ein Bildauswertungsverfahren aus, das nachfolgend detailliert beschrieben wird. Die Auswertungseinrichtung 8 stellt somit einen Rechner im Sinne der vorliegen den Erfindung dar. Vorab sei aber noch erwähnt, dass das Computerprogramm 12 der Auswertungseinrichtung 8 selbstverständlich zuvor zugeführt worden sein muss. Dieses Zuführen kann beispielsweise mittels eines geeigneten Datenträgers 13 erfolgen, auf dem das Computerprogramm 12 ebenfalls gespeichert ist. Dieser Datenträger 13 wird in eine geeignete Schnittstelle 14 der Auswertungseinrichtung 8 eingeführt, so dass das auf dem Datenträger 13 gespeicherte Computerprogramm 12 ausgelesen und im Massenspeicher 11 der Auswertungseinrichtung 8 hinterlegt werden kann.
  • Die Bilder B selbst werden der Auswertungseinrichtung 8 in einem Schritt S11 über eine entsprechende Schnittstelle 15 zugeführt. Gleiches gilt für die korrespondierenden Erfassungszeitpunkte t und die zugeordneten Phaseninformationen φ. Zur Auswahl der Projektionsbilder B aus der erfassten Serie von Bildern B müssen der Auswertungseinrichtung 8 aber auch die entsprechenden Auswahlkriterien φ*, δφ bekannt sein, nämlich eine Referenzphasenlage φ* und eine Phasenschranke δφ. Hierbei ist es möglich, dass die Referenzphase φ* und die Phasenschranke δφ innerhalb der Auswertungseinrichtung 8 gespeichert sind. Vorzugsweise aber werden die Referenzphase φ* und die Phasenschranke δφ der Auswertungseinrichtung 8 gemäß 5 in einem Schritt S12 vom Anwender 6 über eine entsprechende Eingabeeinrichtung 17 vorgegeben. Beispielsweise ist es möglich, dass der Anwender 6 in der erfassten Sequenz von Bildern B durch entsprechende Eingaben blättert und eines der Bilder B auswählt. Die Phaseninformation φ des so ausgewählten Bildes B bestimmt dann die Referenzphase φ*, der Abstand zum unmittelbar nachfolgenden und unmittelbar vorhergehenden Bild B die Phasenschranke δφ. Es ist aber natürlich ebenso möglich, dass der Anwender 6 die entsprechenden Werte φ*, δφ explizit durch Zahlenwerte vorgibt. Schließlich ist es auch noch möglich, dass das EKG-Signal über ein Sichtgerät 16 an den Anwender 6 ausgibt und der Anwender 6 im EKG-Signal entsprechende Markierungen setzt. In allen Fällen kann der Anwender 6 die Werte φ* und δφ alternativ als absolute Zeitwerte oder als relative Phasenwerte vorgeben.
  • In Schritten S13 bis S17 erfolgt die eigentliche Auswahl der Projektionsbilder B aus der gesamten Serie von Bildern B. Hierzu wird zunächst in einem Schritt S13 ein Index i auf den Wert Eins gesetzt. Sodann selektiert die Auswertungseinrichtung 8 im Schritt S14 die Bilder B der Iteration i des Untersuchungsobjekts 3. Innerhalb der nunmehr selektierten Bilder B bestimmt die Auswertungseinrichtung 8 nunmehr im Regelfall eines (ausnahmsweise auch keines) der Bilder B zu einem Projektionsbild B. Denn sie sucht im Schritt S15 zunächst dasjenige der selektierten Bilder B, bei dem der Betrag der Differenz der Phaseninformation φ zur Referenzphase φ* minimal wird. Sodann prüft sie, ob diese Differenz kleiner als die Phasenschranke δφ ist. Wenn die Auswertungseinrichtung 8 so ein Bild B ermitteln kann, bestimmt sie im Schritt S15 dieses Bild B zum Projektionsbild B für die jeweilige Iteration i. Wenn sie kein solches Bild B ermitteln kann, vermerkt sie dies entsprechend.
  • Im Schritt S16 prüft die Auswertungseinrichtung 8, ob der Index i bereits seinen Maximalwert erreicht hat. Wenn dies nicht der Fall ist, inkrementiert die Auswertungseinrichtung 8 im Schritt S17 den Index i und geht zum Schritt S14 zurück. Anderenfalls ist die Bestimmung der Projektionsbilder B beendet.
  • Durch diese Vorgehensweise, die Bestandteil der vorliegenden Erfindung ist, ist gewährleistet, dass die Pixelwerte miteinander korrespondierender Pixel 9 der Projektionsbilder B auch dann durch zumindest im Wesentlichen örtlich gleiche Bereiche des Untersuchungsobjekts 3 bestimmt sind, wenn das Untersuchungsobjekt 3 sich während der Erfassung der gesamten Serie von Bildern B iterierend bewegt hat.
  • In einem Schritt S18 gibt die Auswertungseinrichtung 8 die Anzahl der ermittelten Projektionsbilder B und die Anzahl der Iterationen des Untersuchungsobjekts 3 über das Sichtgerät 16 an den Anwender 6 aus. Dieser kann somit erkennen, ob er eine gute Auswahl für die Referenzphase φ* und/oder die Phasenschranke δφ getroffen hat.
  • In einem Schritt S19 wartet die Auswertungseinrichtung 8 als nächstes eine Anwendereingabe ab. Wenn eine derartige Eingabe erfolgt ist, prüft die Auswertungseinrichtung 8 in einem Schritt S20, ob diese Eingabe eine Bestätigung des Anwenders 6 war. Wenn dies der Fall ist, ist die Auswahl der Projektionsbilder B abgeschlossen und es kann mit dem eigentlichen Bildauswertungsverfahren fortgefahren werden.
  • Anderenfalls prüft die Auswertungseinrichtung 8 in einem Schritt S21, ob der Anwender einen Wunsch nach Änderung der Referenzphase φ* und/oder der Phasenschranke δφ eingegeben hat. Wenn dies der Fall ist, geht die Auswertungseinrichtung 8 zum Schritt S12 zurück.
  • Anderenfalls hat der Anwender 6 einen Wunsch nach Darstellung eines der Projektionsbilder B eingegeben. In diesem Fall nimmt die Auswertungseinrichtung 8 in einem Schritt S22 vom Anwender 6 eine entsprechende Anwahl entgegen. In einem Schritt S23 stellt sie dann das angewählte Projektionsbild B auf dem Sichtgerät 16 dar. Zusammen mit dem angewählten Projektionsbild B gibt sie auch die korrespondierende Phaseninformation φ des angewählten Projektionsbildes B, die Referenzphase φ*, deren Differenz und die Phasenschranke δφ über das Sichtgerät 16 an den Anwender 6 aus. Sodann geht sie zum Schritt S19 zurück. Gegebenenfalls wäre es auch möglich, eine Gesamtdarstellung des Phasenverlaufs anzuzeigen und die Phaseninformation φ aller Projektionsbilder B gleichzeitig darzustellen.
  • Der Vollständigkeit halber sei erwähnt, dass die Schritte S12 bis S23 nur dann sinnvoll und/oder erforderlich sind, wenn eine Auswahl der Projektionsbilder B aus der Gesamtserie von Bildern B erfolgen muss. Wenn hingegen die erfassten Bilder B a priori bereits alle geeignet sind, können die Schritte S12 bis S23 entfallen.
  • Weiterhin sei erwähnt, dass alternativ zu der oben stehend in Verbindung mit 5 beschriebenen Vorgehensweise es auch möglich ist, vorab geeignete Intervalle für die Phaseninformation φ festzulegen und für jedes Intervall die Anzahl an möglichen Projektionsbildern B zu ermitteln. Die Auswertungseinrichtung 8 kann in diesem Fall eine Liste bzw. Tabelle ausgeben, anhand derer für den Anwender 6 erkennbar ist, wie viele Projektionsbilder B ihm für welches Phasenintervall jeweils zur Verfügung stehen. In diesem Fall muss der Anwender 6 nur noch das von ihm gewünschte Phasenintervall selektieren.
  • Wenn die Auswahl der Projektionsbilder B aus der Gesamtserie von Bildern B abgeschlossen ist, wird mit 6 fortgefahren. Schritte S31 und S32 von 6 entsprechen dabei dem Schritt S11 einerseits und den Schritten S12 bis S23 von 5 andererseits. Da der Schritt S32, wie bereits erwähnt, nur optional ist, ist er in 6 nur gestrichelt dargestellt.
  • In einem Schritt S33 nimmt die Auswertungseinrichtung 8 vom Anwender 6 einen Teilbereich 18 entgegen. Diesen Teilbereich 18 blendet die Auswertungseinrichtung 8 in einem Schritt S34 in eines der Projektionsbilder B ein und gibt dieses Projektionsbild B zusammen mit der Markierung des Teilbereichs 18 über das Sichtgerät 16 an den Anwender 6 aus. Auch dies ist aus 3 ersichtlich. Der Teilbereich 18 entspricht dabei dem schwarzen Rahmen in 3.
  • In einem Schritt S35 ermittelt der Rechner sodann für jedes Pixel 9, das innerhalb des vorgegebenen Teilbereichs 18 liegt, dessen Typ. Der Typ 1 entspricht dabei dem nicht perfundierten Teil der Umgebung eines Gefäßes. Der Typ 2 entspricht einem Gefäß, der Typ 3 dem perfundierten Teil der Umgebung eines Gefäßes.
  • In einem Schritt S36 prüft die Auswertungseinrichtung 8 für jedes Pixel 9 innerhalb des Teilbereichs 18, ob diesem Pixel 9 der Typ 3 zugeordnet wurde. Wenn dies der Fall ist, ermittelt die Auswertungseinrichtung 8 in einem Schritt S37 für das jeweilige Pixel 9 ein Ausmaß der Perfusion und ordnet dem betreffenden Pixel 9 das ermittelte Ausmaß zu.
  • Die Zuordnung des jeweiligen Typs und gegebenenfalls auch des Ausmaßes der Perfusion zu den einzelnen Pixeln 9 definiert ein Auswertungsbild A. Auf Grund der Art der Erstellung des Auswertungsbildes A korrespondiert dabei jedes Pixel 9 des Auswertungsbildes A mit den entsprechenden Pixeln 9 der Projektionsbilder B. Insbesondere ist somit auch das Auswertungsbild A zweidimensional und weist eine Vielzahl von Pixeln 9 auf. Dieses Auswertungsbild A gibt die Auswertungseinrichtung 8 im Rahmen des Schrittes S38 über das Sichtgerät 16 an den Anwender 6 aus.
  • Auf die Schritte S35 bis S37, die den eigentlichen Kern der vorliegenden Erfindung betreffen, wird später noch detailliert eingegangen werden.
  • 7 zeigt ein derartiges Auswertungsbild A. Gemäß 7 hat die Auswertungseinrichtung 8 das Ausmaß der Perfusion und auch den Typ anhand einer Zuordnungsvorschrift in Farbwerte umgesetzt. Die Auswertungseinrichtung 8 gibt somit das Auswertungsbild A in Form einer farbcodierten Darstellung über das Sichtgerät 16 an den Anwender 6 aus. Die Zuordnungsvorschrift kann die Auswertungseinrichtung 8 dabei ggf. zusammen mit der farbcodierten Darstellung über das Sichtgerät 16 an den Anwender 6 ausgeben.
  • Alternativ zu der Darstellung gemäß 7 ist es gemäß 8 auch möglich, eines der Projektionsbilder B in das Auswertungsbild A mit einzublenden.
  • Wie weiterhin aus 7 ersichtlich ist, können in das Auswertungsbild A auch andere Angaben mit eingeblendet sein, beispielsweise ein erster Schwellwert SW1, ein Grenzzeitpunkt GZP, ein Faktor F sowie weitere Werte. Die Bedeutung dieser Werte wird später noch ersichtlich werden.
  • Gemäß den 7 und 8 wird nur der Teilbereich 18 dargestellt und ausgegeben. Es ist aber selbstverständlich auch möglich, über den Teilbereich 18 hinaus das gesamte Auswertungsbild A über das Sichtgerät 16 an den Anwender 6 auszugeben und in diesem Fall den Teilbereich 18 analog zu 3 entsprechend zu markieren.
  • In einem Schritt S39 wartet die Auswertungseinrichtung 8 dann eine Eingabe des Anwenders 6 ab. Wenn diese Eingabe erfolgt ist, prüft die Auswertungseinrichtung 8 zunächst in einem Schritt S40, ob die Eingabe eine Bestätigung war. Wenn dies der Fall ist, erstellt die Auswertungseinrichtung 8 in einem Schritt S41 anhand des Auswertungsbildes A einen Report und ordnet das Auswertungsbild A und den Report den Projektionsbildern B zu. Sodann archiviert sie zumindest die Projektionsbilder B, das Auswertungsbild A und den Report als Einheit.
  • Anderenfalls prüft die Auswertungseinrichtung 8 in einem Schritt S42, ob die Eingabe eine Anweisung zum Verwerfen des Auswertungsbildes A war. In diesem Fall wird das Bildauswertungsverfahren ohne Abspeichern des Reports ohne weiteres verlassen.
  • Anderenfalls prüft die Auswertungseinrichtung 8 in einem Schritt S43, ob die Kriterien zur Bestimmung des Typs und/oder des Ausmaßes der Perfusion geändert werden sollen. Wenn dies der Fall ist, nimmt die Auswertungseinrichtung 8 in einem Schritt S44 neue Kriterien entgegen und geht zum Schritt S35 zurück.
  • Wenn auch die Kriterien nicht geändert werden sollen, kann der Anwender 6 nur noch ein Pixel 9 oder eine Gruppe von Pixeln 9 angewählt haben. In diesem Fall nimmt die Auswertungseinrichtung 8 in einem Schritt S45 eine entsprechende Anwahl eines Pixels 9 oder einer Pixelgruppe entgegen. In einem Schritt S46 ermittelt sie dann für das angewählte Pixel 9 bzw. die angewählte Pixelgruppe den zeitlichen Verlauf des Mittelwerts der entsprechenden Bereiche der Projektionsbilder B, anhand derer er für das angewählte Pixel 9 bzw. die angewählte Pixelgruppe das Ausmaß der Perfusion ermittelt hat, und gibt diesen Verlauf über das Sichtgerät 16 an den Anwender 6 aus.
  • 9 zeigt nun eine mögliche Implementierung der Schritte S35 bis S37 von 6.
  • Gemäß 9 teilt die Auswertungseinrichtung 8 zunächst in einem Schritt S51 die Projektionsbilder B in zweidimensionale Parzellen 19 ein. Die Einteilung der Parzellen 19 ist beispielsweise aus 3 ersichtlich. Gemäß 3 sind die Parzellen 19 rechteckig. Dies ist die einfachste Art der Einteilung in Parzellen 19. Es sind aber auch andere Parzellenformen möglich, insbesondere gleichseitige Dreiecke und regelmäßige Sechsecke.
  • Die Größe der Parzellen 19 ist prinzipiell frei wählbar. Sie müssen aber selbstverständlich zweidimensional sein. Ferner sollten sie so viele Pixel 9 umfassen, dass sich bei einer Mittelwertbildung das Rauschen tendenziell herausmittelt und Bewegungsartefakte zumindest im Regelfall vernachlässigbar sind. Andererseits sollte die Auflösung hinreichend gut sein. In Versuchen wurde ermittelt, dass die Parzellen vorzugsweise zwischen etwa 60 und rund 1000 Pixeln enthalten sollten, was im Falle rechteckiger Parzellen 19 einer Kantenlänge von z.B. 8 × 8 Pixeln bis z. B. 32 × 32 Pixeln entsprechen kann.
  • In Schritten S52 und S53 setzt die Auswerteeinrichtung 8 als nächste Laufindizes i, j auf den Wert Eins. Der Index i durchläuft nacheinander jede Parzelle 19 der zweidimensionalen Anordnung von Parzellen 19 gemäß 3. Der Index j durchläuft nacheinander die Projektionsbilder B.
  • In einem Schritt S54 bestimmt die Auswertungseinrichtung 8 den – gewichteten oder ungewichteten – Mittelwert M(j) der Pixelwerte der durch den Index i bestimmten Parzelle 19 in dem durch den Index j bestimmten Projektionsbild B.
  • In einem Schritt S55 prüft die Auswertungseinrichtung 8, ob der Index j bereits seinen Maximalwert erreicht hat. Wenn dies nicht der Fall ist, inkrementiert die Auswertungseinrichtung 8 in einem Schritt S56 den Index j und geht zum Schritt S54 zurück, um den nächsten Mittelwert M(j) zu ermitteln.
  • Wenn für eine bestimmte Parzelle 19 alle Mittelwerte M(j) ermittelt sind, bestimmt die Auswertungseinrichtung 8 in einem Schritt S57 anhand dieser Mittelwerte M(j) zunächst den Typ der jeweiligen Parzelle 19 und ordnet den ermittelten Typ einer Parzelle 19 des Auswertungsbildes A – siehe 7 – zu. Die Parzellen 19 des Auswertungsbildes A korrespondieren dabei 1:1 mit den Parzellen 19 der Projektionsbilder B.
  • Sodann prüft die Auswertungseinrichtung 8 in einem Schritt S58, ob der ermittelte Typ dem Typ 3, also dem Typ „perfundierter Teil der Umgebung", entspricht. Wenn dies der Fall ist, bestimmt die Auswertungseinrichtung 8 in einem Schritt S59 anhand derselben Mittelwerte M(j) das Ausmaß der Perfusion für diese Parzelle 19 und ordnet es ebenfalls der korrespondierenden Parzelle 19 des Auswertungsbildes A zu.
  • Sodann prüft die Auswertungseinrichtung 8 in einem Schritt S60, ob sie die Schritt S53 bis S59 bereits für alle Parzellen 19 durchgeführt hat. Wenn dies nicht der Fall ist, inkrementiert sei in einem Schritt S61 den Index i und geht zum Schritt S53 zurück. Anderenfalls ist die Ermittlung und Zuordnung des Typs und auch des Ausmaßes der Perfusion beendet.
  • Selbstverständlich sind Modifikationen des oben stehend in Verbindung mit 9 beschriebenen Verfahrens möglich. So kann beispielsweise insbesondere die Reihenfolge der Indizes i, j vertauscht werden. In diesem Fall wird eine Anzahl modifizierter Projektionsbilder B' ermittelt. Jedes dieser modifizierten Projektionsbilder B' weist pro Parzelle 19 einen einheitlichen Wert auf, nämlich den im Schritt S54 ermittelten Mittelwert M(j). Ein Beispiel eines derartigen modifizierten Projektionsbildes B' ist in 10 dargestellt.
  • Durch die oben stehend beschriebene, erfindungsgemäße Vorgehensweise werden insbesondere folgende Merkmale erreicht:
    • – Die Auswertungseinrichtung 8 nimmt die Zuordnung des Typs anhand des zeitlichen Verlaufs der Pixelwerte der Projektionsbilder B vor.
    • – Die Auswertungseinrichtung 8 nimmt die Zuordnung des Typs und des Ausmaßes an Perfusion anhand des zeitlichen Verlaufs der Pixelwerte derjenigen Pixel 9 der Projektionsbilder B vor, die in einem durch das jeweilige Pixel 9 des Auswertungsbildes A bestimmten zweidimensionalen Auswertungskern 19 der Projektionsbilder B liegen. Denn der Auswertungskern 19 korrespondiert mit der jeweiligen Parzelle 19.
    • – Aus dem gleichen Grund nimmt die Auswertungseinrichtung 8 die Zuordnung von Typ und Ausmaß auch für alle Pixel 9 einer Parzelle 19 einheitlich vor.
    • – Weiterhin werden zur Ermittlung des Typs und zur Ermittlung des Ausmaßes die gleichen Parzellen 19 herangezogen.
  • 7 und auch 8 zeigen das Ergebnis der Zuordnung.
  • Alternativ zur parzellenweisen Zuordnung von Typ und Ausmaß der Perfusion der einzelnen Pixel 9 des Auswertungsbildes A wäre es natürlich auch möglich, dass die Auswertungseinrichtung 8 für jedes Pixel 9 des Auswertungsbildes A einen eigenen zweidimensionalen Auswertungskern in den Projektionsbildern B bestimmt, bei dem das jeweilige Pixel 9 des Auswertungsbildes A in der Mitte des jeweiligen Auswertungskerns angeordnet ist. Auch dann ist eine völlig analoge Vorgehensweise möglich. Hierzu wäre aber ein erheblich größerer Re chenaufwand erforderlich, dem kein deutlicher Genauigkeitsgewinn gegenüber steht.
  • Wenn im Untersuchungsobjekt 3 viel Kontrastmittel vorhanden ist, erfolgt nur eine relativ geringe Transmission. Dies bewirkt in den Projektionsbildern B eine relativ geringe Helligkeit (tendenziell: schwarz). Wenn umgekehrt im Untersuchungsobjekt 3 nur wenig Kontrastmittel vorhanden ist, erfolgt eine höhere Transmission, wodurch in den Projektionsbildern B eine größere Helligkeit (tendenziell: weiß) hervorgerufen wird. In der Regel wird bei der Digitalisierung der Projektionsbilder B schwarz der Pixelwert Null zugeordnet, weiß der maximal mögliche Pixelwert z. B. 28 – 1 = 255. Nachfolgend wird umgekehrt zur konventionellen Vorgehensweise vorgegangen. Weiß wird also der Pixelwert Null zugeordnet, schwarz der maximal mögliche Pixelwert. Denn diese Zuordnung erleichtert das Verständnis der nachfolgenden Ausführungen. Die Zuordnung von Null zu weiß und Maximalwert zu schwarz ist aber nicht prinzipiell erforderlich.
  • In Verbindung mit den 11 bis 13 wird nunmehr beschrieben, wie die Auswertungseinrichtung 8 den Typ der einzelnen Parzellen 19 ermittelt. Hierfür benötigt die Auswertungseinrichtung 8 zwei Entscheidungskriterien, nämlich den ersten Schwellwert SW1 und den Grenzzeitpunkt GZP.
  • Wenn bei einer bestimmten Parzelle 19 in allen Projektionsbildern B die Differenz der ermittelten Mittelwerte M(j) vom korrespondierenden Mittelwert M(1) des ersten Projektionsbildes B maximal den ersten Schwellwert SW1 erreicht, wird der jeweiligen Parzelle 19 der Typ „Hintergrund" bzw. „nicht perfundierter Teil der Umgebung" zugeordnet. Ein typisches Beispiel für einen derartigen Mittelwertverlauf zeigt 11.
  • Der erste Schwellwert SW1 kann fest vorgegeben sein. Er kann beispielsweise 5 oder 10 % des maximalen Aussteuerungsbereichs betragen. Er kann aber auch relativ zum Mittelwert M(1) der jeweiligen Parzellen 19 des ersten Projektionsbildes B definiert sein. Beispielsweise kann er 10 oder 20 % des Mittelwertes M(1) betragen. Vorzugsweise aber hängt der erste Schwellwert SW1 sowohl von einer Eingabe des Anwenders 6 als auch vom Mittelwert M(1) der entsprechenden Parzelle 19 des zeitlichen ersten Projektionsbildes B ab. Dies kann insbesondere dadurch realisiert werden, dass der Anwender 6 gemäß einem Schritt S71 von 14 den Faktor F der Auswertungseinrichtung 8 vorgibt und die Auswertungseinrichtung 8 dann in einem Schritt S72 den ersten Schwellwert SW1 für die jeweilige Parzelle 19 als Produkt des Faktors F und des Mittelwerts M(1) der jeweiligen Parzelle 19 bestimmt.
  • Wenn der Typ einer Parzelle 19 nicht dem Typ „Hintergrund" entspricht, muss der Parzelle 19 entweder den Typ „Gefäß" oder den Typ „perfundierter Teil der Umgebung" zugeordnet sein. Für die Unterscheidung dieser beiden Typen dient der Grenzzeitpunkt GZP. Denn wenn der erste Schwellwert SW1 erstmals vor dem Grenzzeitpunkt GZP überschritten wird, wird einer Parzelle 19 der Typ „Gefäß" zugeordnet, anderenfalls der Typ „perfundierter Teil der Umgebung".
  • Auch der Grenzzeitpunkt GZP kann der Auswertungseinrichtung 8 fest vorgegeben sein. Vorzugsweise aber hängt auch der Grenzzeitpunkt GZP von einer Eingabe des Anwenders 6 ab. Hierzu sind gemäß 14 Schritte S73 bis S75 vorhanden. Im Schritt S73 nimmt die Auswertungseinrichtung 8 vom Anwender 6 den Grenzzeitpunkt GZP entgegen. Im Schritt S74 ermittelt die Auswertungseinrichtung 8 dasjenige der Projektionsbilder B, das dem Grenzzeitpunkt GZP zeitlich am nächsten liegt. Dieses Projektionsbild B gibt sie im Rahmen des Schrittes S74 über das Sichtgerät 16 an den Anwender 6 aus. Im Schritt S75 überprüft die Auswertungseinrichtung 8, ob der Anwender 6 den Grenzzeitpunkt GZP bestätigt oder ob er eine Neuvorgabe wünscht. Entsprechend wird entweder zum Schritt S73 zurückgegangen oder das Verfahren mit einem Schritt S76 fortgesetzt, in dem die Typzuordnung für die einzelnen Parzellen 19 erfolgt.
  • Die 12 und 13 zeigen je ein Beispiel eines zeitlichen Verlaufs für eine Parzelle 19 vom Typ „Gefäß" und „perfundierter Teil der Umgebung".
  • Gemäß dem Schritt S76 erfolgt folgende Typzuordnung: Wenn für alle möglichen Indizes j gilt, dass der Betrag der Differenz des Mittelwerts M(j) des Projektionsbildes B(j) und des Mittelwerts M(1) des Projektionsbildes B(1) kleiner als der erste Schwellwert SW1 ist, wird der korrespondierenden Parzelle 19 der Typ 1 (Hintergrund) zugeordnet. Wenn ein Wert für den Index j existiert, für den die oben genannte Differenz den ersten Schwellwert SW1 übersteigt und der Index j mit einer Erfassungszeit t(j) korrespondiert, die vor dem Grenzzeitpunkt GZP liegt, wird der betreffenden Parzelle 19 der Typ 2 (Gefäß) zugeordnet. Anderenfalls wird der betreffenden Parzelle 19 der Typ 3 (perfundierter Teil der Umgebung) zugeordnet.
  • In einem Schritt S77 prüft die Auswertungseinrichtung 8, ob der ermittelte Typ der Typ 3 ist. Nur wenn dies der Fall ist, werden Schritte S78 bis S80 durchgeführt. Anderenfalls werden die Schritte S78 bis S80 übersprungen.
  • Im Schritt S78 führt die Auswertungseinrichtung 8 eine Berechnung des Ausmaßes der Perfusion durch. Diese Berechnung kann auf vielerlei Art und Weise erfolgen. Dies wird nachstehend in Verbindung mit 15 näher erläutert. Vorab sei aber erwähnt, dass im einfachsten Fall nur zwei oder drei Werte für das Ausmaß der Perfusion unterschieden werden, also nur hoch und niedrig oder hoch, mittel und niedrig. Es sind aber auch feinere Unterteilungen möglich.
  • Gemäß 15 übersteigt der zeitliche Verlauf des Mittelwerts M in einer Parzelle 19 vom Typ 3 erstmals zu einem Zeitpunkt T1 den ersten Schwellwert SW1. Zu einem Zeitpunkt T2 erreicht der Mittelwert z. B. 90% seines Maximums Mmax. Zu einem Zeitpunkt T3 erreicht der Mittelwert M sein Maximum Mmax. Zu einem Zeitpunkt T4 fällt der Mittelwert M wieder auf bei spielsweise 90% seines Maximums Mmax ab. Zu einem Zeitpunkt T5 fällt der Mittelwert M dann wieder unter den ersten Schwellwert SW1 ab. Der Zahlenwert 90% ist dabei nur beispielhaft. Es könnte selbstverständlich auch ein anderer Prozentsatz herangezogen werden. Auch kann gegebenenfalls eine Korrektur um einen Basiswert M0 erfolgen. Der Basiswert M0 ist dabei für die betrachtete Parzelle 19 definiert als der Mittelwert der Mittelwerte M vor dem Grenzzeitpunkt GZP oder vor dem Zeitpunkt T1.
  • Zusätzlich zu den oben genannten Zeitpunkten T1 bis T5 kann eine Hilfszeit T6 definiert werden, in der der Mittelwert M einen zweiten Schwellwert SW2 übersteigt. Der zweite Schwellwert SW2 entspricht dabei vorzugsweise dem so genannte FWHM (FWHM = full width at half maximum).
  • Für das Ausmaß der Perfusion ist es nun möglich, dass die Auswertungseinrichtung 8 es aus einer dieser Größen oder aus mehreren dieser Größen ermittelt. Beispielsweise sind folgende Vorgehensweisen – einzeln oder in Kombination miteinander – möglich:
    • – Es wird die Differenz der Zeitpunkte T5 und T1 gebildet. Dieser Wert ist charakteristisch für die zeitliche Dauer, während derer die Änderung des Mittelwerts M den ersten Schwellwert SW1 übersteigt.
    • – Es wird die Differenz der Zeitpunkte T2 und T1 gebildet. Dieser Wert ist charakteristisch für die zeitliche Dauer des Anstiegs der Änderung des Mittelwerts M.
    • – Es wird die Differenz der Zeitpunkte T5 und T4 gebildet. Dieser Wert ist charakteristisch für die zeitliche Dauer des Abfalls der Änderung des Mittelwerts M.
    • – Es wird das Maximum Mmax herangezogen, also die maximale Änderung des Mittelwerts M.
    • – Es wird der Zeitpunkt T3 herangezogen, also der Zeitpunkt der maximalen Änderung des Mittelwerts M.
    • – Es wird der Zeitpunkt T1 herangezogen, das heißt die Zeitdauer bis zu Beginn der Änderung des Mittelwerts M.
  • Es sind selbstverständlich auch Abwandlungen und Kombinationen dieser Vorgehensweisen möglich. Im Falle von Kombinationen können diese alternativ gewichtet oder ungewichtet sein.
  • Im Schritt S79 überprüft die Auswertungseinrichtung 8, ob die Zeitdauer T6 eine Minimalzeit Tmin übersteigt. Wenn dies nicht der Fall ist, ist die Zeitdauer T6 extrem kurz. Ein Beispiel eines solchen Verlaufs zeigt 16. Dies deutet mit hoher Wahrscheinlichkeit auf ein so genanntes Artefakt hin. Die Auswertungseinrichtung 8 geht daher in diesem Fall zum Schritt S80 über. Im Schritt S80 sorgt sie dafür, dass bezüglich der momentan behandelten Parzelle 19 das entsprechende Projektionsbild B unberücksichtigt bleibt. Im einfachsten Fall wird einfach das jeweilige Projektionsbild B (selbstverständlich beschränkt auf die jeweilige Parzelle 19) ausgelassen. Vorzugsweise aber nimmt die Auswertungseinrichtung 8 eine Ersetzung vor. Denn sie ersetzt die behandelte Parzelle 19 durch die korrespondierende Parzelle 19 des zeitlich unmittelbar vorhergehenden Projektionsbildes B, des zeitlich unmittelbar nachfolgenden Projektionsbildes B oder durch eine Interpolation des zeitlich unmittelbar vorhergehenden und des zeitlich unmittelbar nachfolgenden Projektionsbildes B.
  • Im Regelfall wird die Minimalzeit Tmin einem einzigen Projektionsbild B entsprechen, gegebenenfalls auch zwei Projektionsbildern B. Wenn die Minimalzeit Tmin einem einzigen Projektionsbild B entspricht, bietet sich an, eine artefaktbehaftete Parzelle 19 durch den Mittelwert der korrespondierenden Parzellen 19 des zeitlich unmittelbar vorhergehenden und des zeitlich unmittelbar nachfolgenden Projektionsbildes B zu ersetzen. Wenn die Minimalzeit Tmin zwei Projektionsbildern B entspricht, muss weiter unterschieden werden, ob die Zeitdauer T6 einem oder zwei Projektionsbildern B entspricht. Wenn die Zeitdauer T6 einem Projektionsbild B entspricht, kann die oben stehend erwähnte Interpolation vorgenommen werden. Wenn die Zeitdauer T6 zwei Projektionsbildern B entspricht, kann entweder eine Interpolation mit der Gewichtung 2:1 bzw. 1:2 vorgenommen werden oder eine Ersetzung durch die korrespondierende Parzelle 19 des jeweils zeitlich unmittelbar benachbarten Projektionsbildes B.
  • Nach der Ausführung des Schrittes S80 geht die Auswertungseinrichtung 8 zum Schritt S78 zurück.
  • Das oben stehend beschriebene, erfindungsgemäße Bildauswertungsverfahren kann gegebenenfalls nach Bedarf verfeinert werden. Beispielsweise ist es möglich, nach der parzellenweisen Ermittlung des Ausmaßes der Perfusion eine feinere Ermittlung durchzuführen. Dies wird nachfolgend in Verbindung mit 17 näher beschrieben.
  • Gemäß 17 selektiert die Auswertungseinrichtung 8 zunächst in einem Schritt S91 eine Parzelle 19. In einem Schritt S92 überprüft die Auswertungseinrichtung 8, ob der selektierten Parzelle der Typ 3 zugeordnet ist. Nur wenn dies der Fall ist, wird zu einem Schritt S93 übergegangen. Im Schritt S93 berechnet die Auswertungseinrichtung 8 die logische Hilfsgröße OK. OK nimmt den Wert „wahr" dann und nur dann an, wenn die selektierte Parzelle 19 vollständig von Parzellen 19 umgeben ist, denen ebenfalls der Typ 3 zugeordnet ist. Der Wert der logischen Hilfsvariablen OK wird im Schritt S94 überprüft. Je nach dem Ergebnis der Prüfung werden dann Schritte S95 und S96 ausgeführt. Im Schritt S95 wird die selektierte Parzelle 19 unterteilt, beispielsweise in 2 × 2 = 4 Unterparzellen. Für jede Unterparzelle nimmt die Auswertungseinrichtung 8 dann im Schritt S96 erneut eine Ermittlung und Zuordnung des Ausmaßes der Perfusion vor.
  • Im Schritt S97 prüft die Auswertungseinrichtung 8, ob sie die Schritte S92 bis S96 bereits für alle Parzellen 19 durchgeführt hat. Wenn dies nicht der Fall ist, geht sie zu einem Schritt S98 über, indem sie eine andere, bisher noch nicht selektierte Parzelle 19 selektiert. Vom Schritt S98 aus geht sie zum Schritt S92 zurück.
  • Die Vorgehensweise von 17 ist selbstverständlich abänderbar. So kann beispielsweise der Schritt S95 vor den Schritt S91 vorgezogen werden, so dass er für alle Parzellen 19 durchgeführt wird. Die Schritte S91 bis S94 sowie S97 und S98 werden dann jeweils mit den Unterparzellen durchgeführt. Unabhängig davon, ob die eine oder die andere Vorgehensweise ergriffen wird, ermittelt die Auswertungseinrichtung 8 aber nur für diejenigen Pixel 9 des Auswertungsbildes A, denen der Typ „perfundierter Teil der Umgebung" zugeordnet ist und die in einem vorbestimmten Mindestabstand (hier eine Parzelle 19 oder eine Unterparzelle) ausschließlich von Pixeln 9 umgeben sind, denen ebenfalls der Typ „perfundierter Teil der Umgebung" zugeordnet ist, erneut das Ausmaß der Perfusion.
  • Im Rahmen der oben stehenden Erläuterung des erfindungsgemäßen Bildauswertungsverfahrens wurde vorausgesetzt, dass die Aufnahmeparameter der Aufnahmeanordnung 1 einschließlich der Betriebsparameter der Strahlungsquelle 4 während der Erfassung der Bilder B konstant gehalten wurden. Wenn diese Voraussetzung hingegen nicht erfüllt ist, kann es zu Helligkeitsschwankungen in den erfassten Bildern B kommen, welche die Auswertung beeinträchtigen können, im Extremfall sogar unmöglich machen können. Im Rahmen der vorliegenden Erfindung ist daher vorgesehen, entsprechende Korrekturen vorzunehmen, so dass dennoch eine Auswertung erfolgen kann. Diese Korrekturen erfolgen dabei vor dem Schritt S35 oder nach dem Schritt S44 von 6. Sie werden nachstehend in Verbindung mit 18 näher erläutert.
  • Gemäß 18 wird zunächst in einem Schritt S101 ein Referenzbereich 20 der Projektionsbilder B bestimmt. Im einfachsten Fall erfolgt die Bestimmung des Referenzbereichs 20 durch eine entsprechende Anwendereingabe. Sodann blendet die Auswertungseinrichtung 8 in einem Schritt S102 den Referenzbereich 20 in eines der Projektionsbilder B ein. Beispielhaft ist dies aus 3 ersichtlich.
  • Als nächstes bestimmt die Auswertungseinrichtung 8 in einem Schritt S103 eines der Projektionsbilder B zu einem Referenzbild B. Welches der Projektionsbilder B zum Referenzbild B bestimmt wird, ist dabei prinzipiell beliebig. In der Regel wird aber das erste oder das letzte der Projektionsbilder B zum Referenzbild B bestimmt werden.
  • In einem Schritt S104 selektiert die Auswertungseinrichtung 8 dann eines der Projektionsbilder B.
  • Das selektierte Projektionsbild B vergleicht die Auswertungseinrichtung 8 in einem Schritt S105 mit dem Referenzbild B. Der Vergleich erfolgt dabei nur innerhalb der miteinander korrespondierenden Referenzbereiche 20. Anhand des Vergleichs bestimmt die Auswertungseinrichtung 8 in einem Schritt S106 eine Transformation der Pixelwerte des selektierten Projektionsbildes B. Die Transformation ist derart bestimmt, dass der Mittelwert der Pixel 9 des Referenzbereichs 20 des transformierten Projektionsbildes B auf der einen Seite und der Mittelwert der Pixel 9 des Referenzbildes B auf der anderen Seite in einer vorbestimmten funktionalen Beziehung zueinander stehen. Die funktionale Beziehung kann insbesondere darin bestehen, dass der Mittelwert der Pixel 9 des Referenzbereichs 20 des transformierten Projektionsbildes B gleich dem Mittelwert der Pixel 9 des Referenzbildes B ist. Die Transformation kann alternativ linear oder nicht linear sein.
  • Entsprechend der im Schritt S106 bestimmten Transformation transformiert die Auswertungseinrichtung 8 in einem Schritt S107 alle Pixel 9 des selektierten Projektionsbildes B, also sowohl die Pixel 9 innerhalb des Referenzbereichs 20 als auch die Pixel 9 außerhalb des Referenzbereichs 20.
  • In einem Schritt S108 prüft die Auswertungseinrichtung 8, ob sie die Schritte S104 bis S107 bereits für alle Projektionsbilder B durchgeführt hat. Wenn dies noch nicht der Fall ist, geht sie zunächst zu einem Schritt S109 über, in dem sie ein anderes der Projektionsbilder B selektiert. Sodann geht sie zum Schritt S105 zurück. Anderenfalls ist das Transformieren der Projektionsbilder B beendet.
  • Alternativ zu einer Vorgabe des Referenzbereichs 20 durch den Anwender 6 ist es natürlich auch möglich, dass die Auswertungseinrichtung 8 den Referenzbereich 20 selbsttätig ermittelt. Beispielsweise kann die Auswertungseinrichtung 8 den Referenzbereich 20 anhand der Pixel 9 des Auswertungsbildes A ermitteln, denen sie den Typ „nicht perfundierter Teil der Umgebung", also den Typ 1, zugeordnet hat. Parzellen 19, die außerhalb des Belichtungsbereichs liegen, werden dabei nicht berücksichtigt. Dies kann gemäß 19 beispielsweise wie folgt geschehen:
    Zunächst selektiert die Auswertungseinrichtung 8 in einem Schritt S111 eine Parzelle 19. In einem Schritt S112 prüft die Auswertungseinrichtung 8 dann, ob die selektierte Parzelle 19 vom Typ 1 ist. Nur wenn dies der Fall ist, werden Schritte S113 bis S115 ausgeführt. Anderenfalls wird direkt zu einem Schritt S116 übergegangen.
  • Im Schritt S113 ermittelt die Auswertungseinrichtung 8 die logische Hilfsgröße OK. Die logische Hilfsgröße OK nimmt den Wert „wahr" nur dann an, wenn die selektierte Parzelle 19 vollständig von Parzellen 19 umgeben ist, denen ebenfalls der Typ 1 zugeordnet ist. Durch diese Vorgehensweise wird insbesondere erreicht, dass nur der Innenbereich des Auswertungsbildes A zum Referenzbereich 20 bestimmt werden kann. Der Randbereich hingegen wird zwangsweise ausgeblendet.
  • Der Wert der logischen Hilfsgröße OK wird im Schritt S114 überprüft. Wenn die logische Variable OK den Wert „falsch" aufweist, wird direkt zum Schritt S116 übergegangen, anderenfalls wird der Schritt S115 ausgeführt. Im Schritt S115 bestimmt die Auswertungseinrichtung 8 die selektierte Parzelle 19 zum Bestandteil des Referenzbereichs 20.
  • In einem Schritt S117 überprüft die Auswertungseinrichtung 8, ob sie bereits alle Parzellen 19 abgeprüft hat. Wenn dies noch nicht der Fall ist, geht sie zu einem Schritt S118 über, in dem sie eine andere Parzelle 19 selektiert. Sodann geht sie zum Schritt S112 zurück. Anderenfalls ist das Verfahren zum Bestimmen des Referenzbereichs 20 abgeschlossen. Der so bestimmte Referenzbereich 20 wird dann auf die Projektionsbilder B übertragen.
  • Wenn die Auswertungseinrichtung 8 den Referenzbereich 20 selbsttätig bestimmt, ist es alternativ oder zusätzlich zur Vorgehensweise von 19 auch möglich, so vorzugehen, wie dies nachfolgend in Verbindung mit 20 beschrieben wird.
  • Gemäß 20 ruft die Auswertungseinrichtung 8 in einem Schritt S121 Informationen über die Aufnahmegeometrie und/oder über den Einspeiseort des Kontrastmittels ab. Auf Grund dieser Angaben kann die Auswertungseinrichtung 8 dann in einem Schritt S122 bestimmte Parzellen 19 als zum Referenzbereich 20 gehörig selektieren.
  • Weiterhin ist es selbstverständlich möglich, den Referenzbereich 20 entsprechend 3 über das Sichtgerät 16 an den Anwender 6 auszugeben. Somit ist der Anwender 6 in der Lage, den Referenzbereich 20 zu überprüfen, zu bestätigen, zu verwerfen oder gegebenenfalls auch zu ändern.
  • Das erfindungsgemäße Bildauswertungsverfahren stellt einen erheblichen Fortschritt gegenüber den Bildauswertungsverfahren des Standes der Technik dar. Insbesondere ist es bei dem erfindungsgemäßen Bildauswertungsverfahren nicht erforderlich, mit DSA-Bildern zu arbeiten. Dies ist zwar möglich, aber eben nicht erforderlich. Auch ist es nicht erforderlich, eine ROI (Region of Interest) zu bestimmen. Weiter ist es nicht erforderlich, zu bestimmen, welche Teile der Projektionsbilder B Gefäß, perfundierter Teil der Umgebung oder nicht perfundierter Teil der Umgebung sind. Diese Bestimmung nimmt vielmehr die Auswertungseinrichtung 8 selbst vor. Auch ist es nicht erforderlich, ein Referenzbild zu bestimmen bzw. zur Verfügung zu haben. Weiterhin muss keinerlei Image Warping vorgenommen werden.
  • Das erfindungsgemäße Bildauswertungsverfahren weist einen hohen Automatisierungsgrad und eine hohe Verarbeitungsgeschwindigkeit auf. Darüber hinaus ist es sehr flexibel, auch im Rahmen der Visualisierung des Auswertungsergebnisses und im Rahmen der Interaktivität. Schließlich ist es noch möglich, das erfindungsgemäße Bildauswertungsverfahren in den Rahmen einer so genannten TIMI-Flussmessung zu integrieren. Dadurch kann ein doppeltes Erfassen der Projektionsbilder B in Verbindung mit der damit gekoppelten Röntgenbelastung des Patienten 3 vermieden werden.

Claims (42)

  1. Bildauswertungsverfahren für zweidimensionale Projektionsbilder (B), die den zeitlichen Verlauf der Verteilung eines Kontrastmittels in einem Untersuchungsobjekt (3) zeigen, wobei das Untersuchungsobjekt (3) ein Gefäßsystem und dessen Umgebung enthält, wobei jedes Projektionsbild (B) eine Vielzahl von Pixeln (9) mit Pixelwerten aufweist, wobei die Pixelwerte miteinander korrespondierender Pixel (9) der Projektionsbilder (B) durch zumindest im Wesentlichen örtlich gleiche Bereiche des Untersuchungsobjekts (3) bestimmt sind, – wobei ein Rechner (8) anhand der Projektionsbilder (B) ein zweidimensionales Auswertungsbild (A) ermittelt, das eine Vielzahl von Pixeln (9) aufweist, und über ein Sichtgerät (16) an einen Anwender (6) ausgibt, – wobei die Pixel (9) des Auswertungsbildes (A) mit denen der Projektionsbilder (B) korrespondieren, – wobei der Rechner (8) zumindest in einem Teilbereich (18) des Auswertungsbildes (A) jedem Pixel (9) einen Typ zuordnet, der dafür charakteristisch ist, ob das jeweilige Pixel (9) einem Gefäß des Gefäßsystems, einem perfundierten Teil der Umgebung eines Gefäßes des Gefäßsystems oder einem nicht perfundierten Teil der Umgebung eines Gefäßes des Gefäßsystems entspricht, und – wobei der Rechner (8) die Zuordnung des Typs anhand des zeitlichen Verlaufs der Pixelwerte der Projektionsbilder (B) vornimmt.
  2. Bildauswertungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Projektionsbilder (B) aus einer Serie von Bildern (B) eines sich iterativ bewegenden Untersuchungsobjekts (3) ausgewählt werden, dass jedem Bild (B) der Serie eine Phaseninformation (φ) über das Untersuchungsobjekt (3) zugeordnet ist und dass die den Projektionsbildern (B) zugeordneten Phaseninformationen (φ) maximal um eine Phasenschranke (δφ) von einer Referenzphase (φ*) abweichen.
  3. Bildauswertungsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Referenzphase (φ*) und/oder die Phasenschranke (δφ) dem Rechner (8) von einem Anwender (6) vorgegeben werden.
  4. Bildauswertungsverfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Rechner (8) die Anzahl der Projektionsbilder (B) ermittelt und über das Sichtgerät (16) an den Anwender (6) ausgibt.
  5. Bildauswertungsverfahren nach Anspruch 2, 3 oder 4, dadurch gekennzeichnet, dass der Anwender (6) eines der Projektionsbilder (B) auswählt und dass der Rechner (8) das ausgewählte Projektionsbild (B) zusammen mit der diesem Projektionsbild (B) zugeordneten Phaseninformation (φ) und/oder zusammen mit der Abweichung der diesem Projektionsbild (B) zugeordneten Phaseninformation (φ) von der Referenzphase (φ*) über das Sichtgerät (16) an den Anwender (6) ausgibt.
  6. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Teilbereich (18) in einem der Projektionsbilder (B) oder im Auswertungsbild (A) als solcher markiert ist.
  7. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Teilbereich (18) dem Rechner (8) vom Anwender (6) vorgegeben wird.
  8. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Rechner (8) die Typzuordnung anhand des zeitlichen Verlaufs der Pixelwerte derjenigen Pixel (9) der Projektionsbilder (B) vornimmt, die in einem durch das jeweilige Pixel (9) des Auswertungsbildes (A) bestimmten zweidimensionalen Typauswertungskern (19) der Projektionsbilder (B) liegen.
  9. Bildauswertungsverfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Rechner (8) zumindest den Teilbereich (18) des Auswertungsbildes (A) in Typparzellen (19) von jeweils mehreren Pixeln (9) unterteilt und dass der Rechner (8) die Typzuordnung parzellenweise vornimmt.
  10. Bildauswertungsverfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass der Rechner (8) für jedes Projektionsbild (B) den gewichteten oder ungewichteten Mittelwert (M(j)) des Typauswertungskerns (19) ermittelt und die Typzuordnung anhand des zeitlichen Verlaufs des Mittelwerts (M(j)) vornimmt.
  11. Bildauswertungsverfahren nach Anspruch 9 und 10, dadurch gekennzeichnet, dass der Typauswertungskern (19) mit der jeweiligen Typparzelle (19) korrespondiert.
  12. Bildauswertungsverfahren nach Anspruch 9, 10 oder 11, dadurch gekennzeichnet, dass der Rechner (8) eine maximale Änderung des Mittelwerts (M(j)) des Typauswertungskerns (19), bezogen auf den Mittelwert (M(1)) des zeitlich ersten Typauswertungskerns (19), ermittelt und dem jeweiligen Pixel (9) des Auswertungsbildes (A) den Typ „nicht perfundierter Teil der Umgebung" zuordnet, wenn die maximale Änderung kleiner als ein erster Schwellwert (SW1) ist.
  13. Bildauswertungsverfahren nach Anspruch 12, dadurch gekennzeichnet, dass der erste Schwellwert (SW1) von einer Eingabe des Anwenders (6) abhängt.
  14. Bildauswertungsverfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass der erste Schwellwert (SW1) vom Mittelwert (M(1)) des zeitlich ersten Typauswertungskerns (19) abhängt.
  15. Bildauswertungsverfahren nach Anspruch 12, 13 oder 14, dadurch gekennzeichnet, dass der Rechner (8), wenn die maximale Änderung des Mittelwerts (M(j)) den ersten Schwellwert (SW1) übersteigt, das zeitlich früheste Projektionsbild (B(j)) ermittelt, bei dem die Differenz des Mittelwerts (M(j)) des Typauswertungskerns (19) dieses Projektionsbildes (B) und des Mittelwerts (M(1)) des Typauswertungskerns (19) des zeitlich ersten Projektionsbildes (B(1)) den ersten Schwellwert (SW1) übersteigt, und dem jeweiligen Pixel (9) des Auswertungsbildes (A) je nach dem, ob der Zeitpunkt (t(j)) des zeitlich frühesten Projektionsbildes (B(j)) vor oder nach einem Grenzzeitpunkt (GZP) liegt, den Typ „Gefäß" bzw. „perfundierter Teil der Umgebung" zuordnet.
  16. Bildauswertungsverfahren nach Anspruch 15, dadurch gekennzeichnet, dass der Grenzzeitpunkt (GZP) von einer Eingabe des Anwenders (6) abhängt.
  17. Bildauswertungsverfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass der Rechner (8) das dem Grenzzeitpunkt (GZP) zeitlich am nächsten liegende Projektionsbild (B) ermittelt und über das Sichtgerät (16) an den Anwender (6) ausgibt.
  18. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Rechner (8) bei denjenigen der Pixel (9) des Auswertungsbildes (A), denen er den Typ „perfundierter Teil der Umgebung" zugeordnet hat, auch ein Ausmaß einer Perfusion des korrespondierenden Bereichs des Untersuchungsobjekts (3) ermittelt und dem jeweiligen Pixel (9) zuordnet.
  19. Bildauswertungsverfahren nach Anspruch 18, dadurch gekennzeichnet, dass der Rechner (8) die Ausmaßzuordnung anhand des zeitlichen Verlaufs der Pixelwerte derjenigen Pixel (9) der Projektionsbilder (B) vornimmt, die in einem durch das jeweilige Pixel (9) des Auswertungsbildes (A) bestimmten zweidimensionalen Grund-Ausmaßauswertungskern (19) der Projektionsbilder (B) liegen.
  20. Bildauswertungsverfahren nach Anspruch 19, dadurch gekennzeichnet, dass der Rechner (8) zumindest den Teilbereich (18) des Auswertungsbildes (A) in Ausmaßparzellen (19) von jeweils mehreren Pixeln (9) unterteilt und dass der Rechner (8) die Ausmaßzuordnung parzellenweise vornimmt.
  21. Bildauswertungsverfahren nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass der Rechner (8) für jedes Projektionsbild (B) den gewichteten oder ungewichteten Mittelwert (M(j)) des Grund-Ausmaßauswertungskerns (19) ermittelt und die Ausmaßzuordnung anhand des zeitlichen Verlaufs des Mittelwerts (M(j)) vornimmt.
  22. Bildauswertungsverfahren nach Anspruch 20 und 21, dadurch gekennzeichnet, dass der Grund-Ausmaßauswertungskern (19) mit der jeweiligen Ausmaßparzelle (19) korrespondiert.
  23. Bildauswertungsverfahren nach Anspruch 21 oder 22, dadurch gekennzeichnet, dass der Rechner (8) das Ausmaß der Perfusion anhand mindestens einer der folgenden Größen ermittelt: – zeitliche Dauer, während derer eine Änderung des Mittelwerts (M) den ersten Schwellwert (SW1) übersteigt, – zeitliche Dauer des Anstiegs der Änderung des Mittelwerts (M), – zeitliche Dauer des Abfalls der Änderung des Mittelwerts (M), – maximale Änderung (Mmax) des Mittelwerts (M), – Zeitpunkt (T3) der maximalen Änderung (Mmax) des Mittelwerts (M), – Zeitdauer (T1) bis zu Beginn der Änderung des Mittelwerts (M).
  24. Bildauswertungsverfahren nach Anspruch 23, dadurch gekennzeichnet, dass der Rechner (8) einen Wert ermittelt, der für eine Dauer (T6) charakteristisch ist, während derer die Änderung des Mittelwerts (M) einen zweiten Schwellwert (SW2) übersteigt, dass der Rechner (8) den Wert (T6) mit einer Minimalzeit (Tmin) vergleicht und dass der Rechner (8) für die korrespondierenden Projektionsbilder (B) deren jeweilige Grund-Ausmaßauswertungskerne (19) unberücksichtigt lässt, wenn die Dauer (T6) unterhalb einer Minimaldauer (Tmin) liegt.
  25. Bildauswertungsverfahren nach Anspruch 24, dadurch gekennzeichnet, dass der Rechner (8) anhand derjenigen Grund-Ausmaßauswertungskerne (19), die zeitlich unmittelbar vor und/oder nach den unberücksichtigten Grund-Ausmaßauswertungskernen (19) liegen, Ersatz-Ausmaßauswertungskerne (19) ermittelt, dass der Rechner (8) die unberücksichtigten Grund-Ausmaßauswertungskerne (19) durch die Ersatz-Auswertungskerne ersetzt und dass der Rechner (8) sodann erneut die Ausmaßzuordnung vornimmt.
  26. Bildauswertungsverfahren nach einem der Ansprüche 19 bis 25 in Verbindung mit einem der Ansprüche 8 bis 17, dadurch gekennzeichnet, dass der Grund-Ausmaßauswertungskern (19) mit dem Typauswertungskern (19) identisch ist.
  27. Bildauswertungsverfahren nach einem der Ansprüche 19 bis 26, dadurch gekennzeichnet, dass der Rechner (8) diejenigen Pixel (9) des Auswertungsbildes (A) ermittelt, denen er den Typ „perfundierter Teil der Umgebung" zugeordnet hat und die innerhalb eines vorbestimmten Mindestabstandes ausschließlich von Pixeln (9) umgeben sind, denen er ebenfalls den Typ „perfundierter Teil der Umgebung" zugeordnet hat, dass der Rechner (8) anhand des zeitlichen Verlaufs der Pixelwerte derjenigen Pixel (9) der Projektionsbilder (B), die in einem durch das jeweilige Pixel (9) des Auswertungsbildes (A) bestimmten Zusatz-Ausmaßauswertungskern der Projektionsbilder (B) liegen, eine erneute Ausmaßzuordnung vornimmt und dass der jeweilige Zusatz-Ausmaßauswertungskern im korrespondierenden Grund-Ausmaßauswertungskern (19) enthalten ist.
  28. Bildauswertungsverfahren nach einem der Ansprüche 18 bis 27, dadurch gekennzeichnet, dass der Rechner (8) zumindest das Ausmaß der Perfusion des Auswertungsbildes (A) anhand einer Zuordnungsvorschrift in Farbwerte umsetzt und dass der Rechner (8) das Auswertungsbild (A) in Form einer entsprechend farbcodierten Darstellung über das Sichtgerät (16) an den Anwender (6) ausgibt.
  29. Bildauswertungsverfahren nach Anspruch 28, dadurch gekennzeichnet, dass der Rechner (8) die Zuordnungsvorschrift zusammen mit der farbcodierten Darstellung über das Sichtgerät an den Anwender (6) ausgibt.
  30. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass eines der Projektionsbilder (B) zu einem Referenzbild (B) bestimmt wird, dass der Rechner (8) einen Referenzbereich (20) der Projektionsbilder (B) mit dem korrespondierenden Referenzbereich (20) des Referenzbildes (B) vergleicht, dass der Rechner (8) anhand des Vergleichs eine für alle Pixel (9) des jeweiligen Projektionsbildes (B) gültige Transformation der Pixelwerte bestimmt, so dass der Mittelwert der Pixelwerte des Referenzbereichs (20) des transformierten Projektions bildes (B) und der Mittelwert der Pixelwerte des Referenzbereichs (20) des Referenzbildes (B) in einer vorbestimmten funktionalen Beziehung stehen, und dass der Rechner (8) die Pixelwerte des jeweiligen Projektionsbildes (B) entsprechend dieser Transformation transformiert.
  31. Bildauswertungsverfahren nach Anspruch 30, dadurch gekennzeichnet, dass der Rechner (8) den Referenzbereich (20) in eines der Projektionsbilder (B) oder in das Auswertungsbild (A) einblendet.
  32. Bildauswertungsverfahren nach Anspruch 30 oder 31, dadurch gekennzeichnet, dass der Rechner (8) den Referenzbereich (20) selbsttätig ermittelt.
  33. Bildauswertungsverfahren nach Anspruch 32, dadurch gekennzeichnet, dass der Rechner (8) den Referenzbereich (20) anhand der Pixel (9) des Auswertungsbildes (A) ermittelt, denen er den Typ „nicht perfundierter Teil der Umgebung" zugeordnet hat.
  34. Bildauswertungsverfahren nach Anspruch 32 oder 33, dadurch gekennzeichnet, dass der Rechner (8) bei der Ermittlung des Referenzbereichs (20) Informationen über die den Projektionsbildern (B) zu Grunde liegende Aufnahmegeometrie und den Einspeiseort des Kontrastmittels in das Untersuchungsobjekt (3) berücksichtigt.
  35. Bildauswertungsverfahren nach Anspruch 30 oder 31, dadurch gekennzeichnet, dass der Referenzbereich (20) dem Rechner (8) vom Anwender (6) vorgegeben wird.
  36. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Anwender (6) dem Rechner (8) eine Anwahl eines Pixels (9) bzw. einer Gruppe von Pixeln (9) des Auswertungsbildes (A) vorgibt und dass der Rechner (8) daraufhin den zeitlichen Verlauf des Mittelwerts der Pixelwerte derjenigen Bereiche der Projektionsbilder (B) ermittelt und über das Sichtgerät (16) an den Anwender (6) ausgibt, anhand derer der Rechner (8) das Ausmaß der Perfusion des angewählten Pixels (9) bzw. der angewählten Gruppe von Pixeln (9) bestimmt hat.
  37. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Rechner (8) zumindest die Bestimmungskriterien (F, SW1, GZP), anhand derer er die Typzuordnung zumindest des Teilbereichs (18) des Auswertungsbildes (A) bestimmt hat, zusammen mit dem Auswertungsbild (A) über das Sichtgerät (16) an den Anwender (6) ausgibt.
  38. Bildauswertungsverfahren nach Anspruch 37, dadurch gekennzeichnet, dass die Bestimmungskriterien (F, SW1, GZP) vom Anwender (6) interaktiv änderbar sind und dass der Rechner (8) bei einer Änderung der Bestimmungskriterien (F, SW1, GZP) das Auswertungsbild (A) neu ermittelt.
  39. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Rechner (8) eines der Projektionsbilder (B) in das Auswertungsbild (A) einblendet.
  40. Bildauswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Rechner (8) auf Grund einer entsprechenden Aufforderung durch den Anwender (6) anhand des Auswertungsbildes (A) selbsttätig einen Report erstellt, das Auswertungsbild (A) und den Report den Projektionsbildern (B) zuordnet und die Projektionsbilder (B), das Auswertungsbild (A) und den Report als Einheit archiviert.
  41. Datenträger mit einem auf dem Datenträger gespeicherten Computerprogramm (12) zur Durchführung eines Bildauswertungsverfahrens nach einem der obigen Ansprüche.
  42. Rechner mit einem Massenspeicher (11), in dem ein Computerprogramm (12) hinterlegt ist, so dass der Rechner bei Aufruf des Computerprogramms (12) ein Bildauswertungsverfahren nach einem der Ansprüche 1 bis 40 ausführt.
DE200510039189 2005-08-18 2005-08-18 Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände Expired - Fee Related DE102005039189B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE200510039189 DE102005039189B4 (de) 2005-08-18 2005-08-18 Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
US11/505,552 US7729525B2 (en) 2005-08-18 2006-08-17 Image evaluation method for two-dimensional projection images and items corresponding thereto
CN2006101388683A CN1915185B (zh) 2005-08-18 2006-08-18 用于二维投影图像的图像评定方法和与其对应的对象
JP2006223448A JP5036250B2 (ja) 2005-08-18 2006-08-18 2次元投影画像の画像評価方法、データ媒体およびコンピュータ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200510039189 DE102005039189B4 (de) 2005-08-18 2005-08-18 Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände

Publications (2)

Publication Number Publication Date
DE102005039189A1 true DE102005039189A1 (de) 2007-02-22
DE102005039189B4 DE102005039189B4 (de) 2010-09-09

Family

ID=37697327

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200510039189 Expired - Fee Related DE102005039189B4 (de) 2005-08-18 2005-08-18 Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände

Country Status (4)

Country Link
US (1) US7729525B2 (de)
JP (1) JP5036250B2 (de)
CN (1) CN1915185B (de)
DE (1) DE102005039189B4 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006025422A1 (de) * 2006-05-31 2007-12-06 Siemens Ag Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
DE102006025420A1 (de) * 2006-05-31 2007-12-06 Siemens Ag Darstellungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
JP2007319690A (ja) * 2006-05-31 2007-12-13 Siemens Ag 二重エネルギー動作で検出された投影画像の評価方法
DE102007024450A1 (de) 2007-05-25 2008-11-27 Siemens Ag Ermittlungsverfahren für ein farbcodiertes erstes Auswertungsbild und hiermit korrespondierende Gegenstände
DE102007028226A1 (de) 2007-06-20 2008-12-24 Siemens Ag Auswertungsverfahren für eine zeitliche Sequenz von Röntgenbildern und hiermit korrespondierende Gegenstände
US7623622B2 (en) 2006-05-29 2009-11-24 Siemens Aktiengesellschaft X-ray system with an adjustment-acquisition device
DE102009031139A1 (de) * 2009-06-30 2011-03-10 Siemens Aktiengesellschaft Ermittlungsverfahren für eine Neu-Initialisierung einer zeitlichen Sequenz von Durchleuchtungsbildern (B(t)) eines Untersuchungsbereichs eines Untersuchungsobjekts
US8103067B2 (en) 2006-06-22 2012-01-24 Siemens Aktiengesellschaft Analysis method for image data records including automatic specification of analysis regions

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2006218431B2 (en) 2005-03-03 2012-12-06 Revance Therapeutics, Inc. Compositions and methods for topical application and transdermal delivery of botulinum toxins
DE102006024000A1 (de) * 2006-05-22 2007-11-29 Siemens Ag Verfahren und Vorrichtung zum Visualisieren von Objekten
WO2007138526A2 (en) * 2006-06-01 2007-12-06 Philips Intellectual Property & Standards Gmbh Hierarchical motion estimation
DE102007006142A1 (de) * 2007-02-07 2008-08-14 Siemens Ag Verfahren und Vorrichtung zur automatischen Bestimmung eines Flusses von einer Körperflüssigkeit innerhalb von Gefäßen eines Lebewesens
JP5140309B2 (ja) * 2007-04-23 2013-02-06 株式会社日立メディコ X線透視撮影装置
US8553832B2 (en) * 2007-05-21 2013-10-08 Siemens Aktiengesellschaft Device for obtaining perfusion images
DE102009031141B3 (de) * 2009-06-30 2010-12-23 Siemens Aktiengesellschaft Ermittlungsverfahren für ein farbkodiertes Auswertungsbild sowie korrespondierende Gegenstände
US20130072790A1 (en) * 2011-09-19 2013-03-21 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Selection and optimization for cardiac resynchronization therapy
US9216008B2 (en) * 2012-01-30 2015-12-22 Technion Research & Development Foundation Limited Quantitative assessment of neovascularization
JP6230303B2 (ja) * 2013-07-02 2017-11-15 キヤノン株式会社 画像処理装置、画像処理方法、撮影制御装置、放射線撮影システムおよびプログラム
DE102013222674B3 (de) * 2013-11-07 2014-10-16 Siemens Aktiengesellschaft Angiographisches Untersuchungsverfahren zur Erkennung von Mikro-Embolisationen
CN106777725B (zh) * 2016-12-23 2020-04-03 广州医软智能科技有限公司 微循环图像算法的验证方法及装置
EP3460750B1 (de) * 2017-09-20 2020-03-25 DKFZ Deutsches Krebsforschungszentrum Verfahren, system und computerprogramm zur computergestützten auswertung von biomarkern in einer gewebeprobe
CN113066038A (zh) * 2019-12-13 2021-07-02 阿里巴巴集团控股有限公司 图像评估方法、装置、电子设备及计算机存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997017673A1 (en) * 1995-11-10 1997-05-15 Beth Israel Deaconess Medical Center Imaging apparatus and method with compensation for object motion
WO1999047046A1 (en) * 1998-03-20 1999-09-23 Barbara Ann Karmanos Cancer Institute Multidimensional detection and characterization of pathologic tissues
WO2003046797A2 (en) * 2001-11-21 2003-06-05 Koninklijke Philips Electronics Nv Improved measurements with ct perfusion
EP1345154A1 (de) * 2002-03-11 2003-09-17 Bracco Imaging S.p.A. Verfahren zur Kodierung von Bildpunkten und Verfahren zur Bildverarbeitung das dazu geignet ist, eine qualitative Erkennung eines mit einem oder mehreren Bildpunkten reproduzierten Objektes zu führen
WO2005048161A1 (en) * 2003-11-12 2005-05-26 The Institute Of Cancer Research; Royal Cancer Hospital A method and means for image processing
US20050113680A1 (en) * 2003-10-29 2005-05-26 Yoshihiro Ikeda Cerebral ischemia diagnosis assisting apparatus, X-ray computer tomography apparatus, and apparatus for aiding diagnosis and treatment of acute cerebral infarct
EP1585058A2 (de) * 2004-03-31 2005-10-12 Kabushiki Kaisha Toshiba Vorrichtung und Verfahren zur Verarbeitung medizinischer Bilder

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4329922A1 (de) * 1993-09-04 1995-03-09 Philips Patentverwaltung MR-Abbildungsverfahren und Anordnung zur Durchführung des Verfahrens
KR100322596B1 (ko) * 1998-12-15 2002-07-18 윤종용 입력 영상의 밝기를 유지하는 화질 개선 장치 및 그 방법
US7490048B2 (en) * 1999-12-18 2009-02-10 Raymond Anthony Joao Apparatus and method for processing and/or for providing healthcare information and/or healthcare-related information
DE10000185A1 (de) * 2000-01-05 2001-07-12 Philips Corp Intellectual Pty Verfahren zur Darstellung des zeitlichen Verlaufs des Blutflusses in einem Untersuchungsobjekt
JP4012016B2 (ja) * 2002-08-29 2007-11-21 キヤノン株式会社 画像処理装置、画像処理方法、記憶媒体、及びプログラム
DE10335663A1 (de) * 2003-08-04 2005-03-10 Siemens Ag Verfahren zur automatischen Kalibrierung von Perfusionsparameterbildern
JP4357928B2 (ja) * 2003-10-29 2009-11-04 株式会社東芝 脳虚血診断支援装置及びx線コンピュータ断層撮影装置
US20050111757A1 (en) * 2003-11-26 2005-05-26 Brackett Charles C. Auto-image alignment system and method based on identified anomalies

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997017673A1 (en) * 1995-11-10 1997-05-15 Beth Israel Deaconess Medical Center Imaging apparatus and method with compensation for object motion
WO1999047046A1 (en) * 1998-03-20 1999-09-23 Barbara Ann Karmanos Cancer Institute Multidimensional detection and characterization of pathologic tissues
WO2003046797A2 (en) * 2001-11-21 2003-06-05 Koninklijke Philips Electronics Nv Improved measurements with ct perfusion
EP1345154A1 (de) * 2002-03-11 2003-09-17 Bracco Imaging S.p.A. Verfahren zur Kodierung von Bildpunkten und Verfahren zur Bildverarbeitung das dazu geignet ist, eine qualitative Erkennung eines mit einem oder mehreren Bildpunkten reproduzierten Objektes zu führen
US20050113680A1 (en) * 2003-10-29 2005-05-26 Yoshihiro Ikeda Cerebral ischemia diagnosis assisting apparatus, X-ray computer tomography apparatus, and apparatus for aiding diagnosis and treatment of acute cerebral infarct
WO2005048161A1 (en) * 2003-11-12 2005-05-26 The Institute Of Cancer Research; Royal Cancer Hospital A method and means for image processing
EP1585058A2 (de) * 2004-03-31 2005-10-12 Kabushiki Kaisha Toshiba Vorrichtung und Verfahren zur Verarbeitung medizinischer Bilder

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MALSCH, U. u.a.: "Quantitative Analyse von Koron- arangiographischen Bildfolgen zur Bestimmung der Myokardperfusion". In:"Bildverarbeitung für die Medizin 2003-Algorithmen-Systeme-Anwendungen", Springer-Verlag, S. 81 bis 85 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623622B2 (en) 2006-05-29 2009-11-24 Siemens Aktiengesellschaft X-ray system with an adjustment-acquisition device
DE102006025420A1 (de) * 2006-05-31 2007-12-06 Siemens Ag Darstellungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
JP2007319690A (ja) * 2006-05-31 2007-12-13 Siemens Ag 二重エネルギー動作で検出された投影画像の評価方法
DE102006025422A1 (de) * 2006-05-31 2007-12-06 Siemens Ag Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
DE102006025422B4 (de) * 2006-05-31 2009-02-26 Siemens Ag Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
DE102006025420B4 (de) * 2006-05-31 2009-04-02 Siemens Ag Darstellungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
US7860288B2 (en) 2006-05-31 2010-12-28 Siemens Aktiengesellschaft X-ray device having a dual energy mode and method to analyze projection images detected in the dual energy mode
US7865003B2 (en) 2006-05-31 2011-01-04 Siemens Aktiengesellschaft Image evaluation method for two-dimensional projection images and objects corresponding thereto
US8620408B2 (en) 2006-05-31 2013-12-31 Siemens Aktiengesellschaft Method for representing two-dimensional projection images and objects corresponding thereto
US8103067B2 (en) 2006-06-22 2012-01-24 Siemens Aktiengesellschaft Analysis method for image data records including automatic specification of analysis regions
DE102007024450A1 (de) 2007-05-25 2008-11-27 Siemens Ag Ermittlungsverfahren für ein farbcodiertes erstes Auswertungsbild und hiermit korrespondierende Gegenstände
DE102007028226A1 (de) 2007-06-20 2008-12-24 Siemens Ag Auswertungsverfahren für eine zeitliche Sequenz von Röntgenbildern und hiermit korrespondierende Gegenstände
US8090176B2 (en) 2007-06-20 2012-01-03 Siemens Aktiengesellschaft Evaluation method for a temporal sequence of x-ray images
DE102007028226B4 (de) * 2007-06-20 2015-11-19 Siemens Aktiengesellschaft Auswertungsverfahren für eine zeitliche Sequenz von Röntgenbildern und hiermit korrespondierende Gegenstände
DE102009031139B4 (de) * 2009-06-30 2011-07-21 Siemens Aktiengesellschaft, 80333 Ermittlungsverfahren für eine Neu-Initialisierung einer zeitlichen Sequenz von Durchleuchtungsbildern (B(t)) eines Untersuchungsbereichs eines Untersuchungsobjekts und zugehörige Gegenstände
DE102009031139A1 (de) * 2009-06-30 2011-03-10 Siemens Aktiengesellschaft Ermittlungsverfahren für eine Neu-Initialisierung einer zeitlichen Sequenz von Durchleuchtungsbildern (B(t)) eines Untersuchungsbereichs eines Untersuchungsobjekts
US8712131B2 (en) 2009-06-30 2014-04-29 Siemens Aktiengesellschaft Determination method for a reinitialization of a temporal sequence of fluoroscopic images of an examination region of an examination object

Also Published As

Publication number Publication date
US20070041625A1 (en) 2007-02-22
US7729525B2 (en) 2010-06-01
CN1915185B (zh) 2010-06-23
JP5036250B2 (ja) 2012-09-26
CN1915185A (zh) 2007-02-21
JP2007050262A (ja) 2007-03-01
DE102005039189B4 (de) 2010-09-09

Similar Documents

Publication Publication Date Title
DE102005039189B4 (de) Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
DE69629732T2 (de) Vorrichtung zur rechnerunterstützten Diagnose
DE102008040804B4 (de) Verfahren, Operationsmikroskop und Analysesystem zur quantitativen Darstellung des Blutflusses
DE10064768B4 (de) Verfahren zur Untersuchung eines Lebewesens mittels eines bildgebenden Verfahrens
DE60014001T2 (de) Verfahren und Vorrichtung zur auf Scout basierten Verkalkungsmessung
DE60034748T2 (de) Verfahren und Vorrichtung zur bewegungsfreien kardiologischen Computertomographie
DE102006025423A1 (de) Röntgenanlage mit dual energy Betrieb und Auswertungsverfahren für im dual energy Betrieb erfasste Projektionsbilder
DE102005036564A1 (de) Betriebsverfahren für eine bildgebende medizintechnische Anlage und hiermit korrespondierende Gegenstände
DE102013201136B4 (de) Vorhersage eines voraussichtlichen Kontrastmittelverlaufs
DE102004022902B4 (de) Verfahren zur medizinischen Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE102005038561A1 (de) Scansteuerungsverfahren und Röntgen-CT-Vorrichtung
DE102008040807B4 (de) Verfahren zur Korrektur von den Blutfluss darstellenden Bilddaten, Medizinisches Gerät und Analysesystem
DE3833309C2 (de)
DE102010036538A1 (de) System und Verfahren zum Kompensieren einer respiratorischen Bewegung in akquirierten radiographischen Bildern
DE102017217599A1 (de) Medizinische Informationsverarbeitungsvorrichtung, Röntgen-CT-Vorrichtung und medizinisches Informationsverarbeitungsverfahren
DE102006049865A1 (de) Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern
DE102009014764A1 (de) Verfahren und Vorrichtung zur Visualisierung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen
DE102006025422B4 (de) Bildauswertungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
DE102007024450A1 (de) Ermittlungsverfahren für ein farbcodiertes erstes Auswertungsbild und hiermit korrespondierende Gegenstände
EP2242023B1 (de) Verfahren zur bewegungskompensierten Rekonstruktion eines dreidimensionalen endgültigen Bilddatensatzes
DE102008003945B3 (de) Verfahren zur Erstellung von auf das Blutgefäßsystem eines Patienten bezogenen Bildaufnahmen mittels eines in seiner Position veränderbaren Detektors einer Einrichtung zur digitalen Subtraktionsangiographie
EP3210537B1 (de) Erstellung eines dreidimensionalen abbilds eines körperteils durch ein röntgengerät
DE102006025420B4 (de) Darstellungsverfahren für zweidimensionale Projektionsbilder und hiermit korrespondierende Gegenstände
DE102016226336A1 (de) Verfahren und Vorrichtung zur Erzeugung eines zweidimensionalen Projektionsbildes aus einem dreidimensionalen Bilddatensatz
DE102007029731B4 (de) Verfahren zur automatischen Bestimmung einer optimalen Zyklusphase eines Herzens für eine Cardio-CT-Rekonstruktion und Cardio-CT-Rekonstruktion

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
8339 Ceased/non-payment of the annual fee