DE102008005923B4 - Verfahren und Einrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddaten - Google Patents

Verfahren und Einrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddaten Download PDF

Info

Publication number
DE102008005923B4
DE102008005923B4 DE102008005923.4A DE102008005923A DE102008005923B4 DE 102008005923 B4 DE102008005923 B4 DE 102008005923B4 DE 102008005923 A DE102008005923 A DE 102008005923A DE 102008005923 B4 DE102008005923 B4 DE 102008005923B4
Authority
DE
Germany
Prior art keywords
kbd
image data
data set
metadata
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102008005923.4A
Other languages
English (en)
Other versions
DE102008005923A1 (de
Inventor
Dr. Gündel Lutz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102008005923.4A priority Critical patent/DE102008005923B4/de
Priority to US12/320,247 priority patent/US8693757B2/en
Publication of DE102008005923A1 publication Critical patent/DE102008005923A1/de
Application granted granted Critical
Publication of DE102008005923B4 publication Critical patent/DE102008005923B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/484Diagnostic techniques involving phase contrast X-ray imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Abstract

Verfahren zur automatischen Kontrastmittelphasen-Klassifizierung von mittels eines bildgebenden Systems (1) erzeugten Bilddatensätzen (BS, BS1, BS2) vom Inneren eines Untersuchungsobjekts (P) mit folgenden Verfahrensschritten:
a) Erfassung zumindest eines Bilddatensatzes (BS, BS1, BS2) des Untersuchungsobjekts (P),
b) Ermittlung von zum Bilddatensatz (BS, BS1, BS2) gehörenden Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4), umfassend
- Körperbereichsdaten (KBD1, KBD2, KBD3, KBD4), welche Informationen über eine vom Bilddatensatz (BS, BS1, BS2) erfasste Körperregion (SB1, SB2) des Untersuchungsobjekts (P) enthalten, und/oder
- Messzeitdaten (TMZ, TKG), welche Informationen über eine Messzeit des Bilddatensatzes (BS, BS1, BS2) enthalten, und/oder
- Hochkontrastdaten (HKD), welche Informationen über stark kontrastreiche Bildbereiche im Bilddatensatz (BS, BS1, BS2) enthalten, und
c) Zuordnung des Bilddatensatzes (BS, BS1, BS2) zu einer Kontrastmittelphase (aB, vH, aN, vN, aL, vL, aK, vK) in Abhängigkeit von den Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4) .

Description

  • Die Erfindung betrifft ein Verfahren zur automatischen Kontrastmittelphasen-Klassifizierung von mittels eines bildgebenden Systems erzeugten Bilddatensätzen vom Inneren eines Untersuchungsobjekts. Darüber hinaus betrifft die Erfindung eine hierfür nutzbare Bilddaten-Klassifizierungseinrichtung sowie ein bildgebendes System mit einer solchen Bilddatensatz-Klassifizierungseinrichtung und ein Computerprogrammprodukt, mit dem das erfindungsgemäße Verfahren durchführbar ist.
  • Aufnahmen vom Inneren eines Untersuchungsobjekts können mit verschiedenen bildgebenden Systemen gefertigt werden, die in der Lage sind, die Strukturen im Inneren des Untersuchungsobjekts darzustellen. Typischerweise werden hierfür Computertomographiesysteme oder Magnetresonanzsysteme eingesetzt. Zur leichteren Erkennung von bestimmten Strukturen im Inneren eines Untersuchungsobjekts werden vielfach Kontrastmittel eingesetzt und während der Verbreitung des Kontrastmittels im Untersuchungsobjekt zu verschiedenen Zeitpunkten Bilddatensätze des interessierenden Bereichs gefertigt. Durch das Kontrastmittel, welches sich in bzw. an bestimmten Strukturen in besonderer Weise verteilt, anlagert und wieder abbaut, werden diese Strukturen in den Bildern besser unterscheidbar und Pathologien oder Fehlfunktionen sichtbar. Dabei ist es wesentlich, in welcher Phase die Bilder aufgenommen wurden, d. h. ob es sich um eine Phase handelt, in der sich das Kontrastmittel erst in die Struktur verteilt bzw. in dieser anlagert, oder ob die Bilder in einer Phase erzeugt werden, in der das Kontrastmittel langsam wieder aus der Struktur verschwindet, d. h. abgebaut wird. Um später die Bilder richtig bewerten zu können, ist es daher wichtig, die Kontrastmittelphase zu bestimmen. Beispielsweise wird zur besseren Erkennung von Gewebeveränderungen im menschlichen oder tierischen Körper, insbesondere bei der Suche nach Tumoren oder nach Gefäßerkrankungen, z. B. Gefäßverschlüssen, meist ein intravenöses Kontrastmittel gespritzt. Dieses gelangt über die rechte Herzkammer in den Lungenkreislauf und von dort über die linke Herzkammer und die Aorta in die einzelnen Organe. Werden die Bilddatensätze zu einem Zeitpunkt erzeugt, zu dem das Kontrastmittel über die Aorta bzw. die weiteren Arterien in die Organe eingespült wird, so spricht man von der sog. „arteriellen Phase“. Innerhalb eines Organs werden dann über die Kapillararterien die drainierenden Venen versorgt, über die das Kontrastmittel mit einer bestimmten Geschwindigkeit wieder ausgeschwemmt bzw. abgebaut wird. Dieser spätere Zeitpunkt ist als „venöse Phase“ definiert. Bei einigen Organen kann man auch zwischen der normalen „venösen Phase“ und einer „spätvenösen Phase“ unterscheiden. Bei der spätvenösen Phase werden die Reste des Kontrastmittels ausgespült. Zum Vergleich wird in der Regel auch noch ein Bilddatensatz ohne Kontrastmittel, d. h. in der Regel vor der Kontrastmittelgabe, angefertigt. Diese Phase wird als „native Phase“ bezeichnet.
  • Die Steuerung von bildgebenden Systemen, insbesondere von großen Systemen wie Computertomographen oder Magnetresonanztomographen, erfolgt in der Regel über sogenannte „Scan-Protokolle“, in denen alle wesentlichen Maschinenparameter und bei Aufnahmesequenzen bzw. Studien auch die Zeitabstände zwischen den einzelnen Aufnahmen gespeichert sind. Das heißt, in den Scan-Protokollen sind die einzelnen Steuerungsparameter enthalten, die benötigt werden, um das bildgebende System vollautomatisch entsprechend dem Scan-Protokoll zu steuern und aus den akquirierten Rohdaten die gewünschten Bilddatensätze zu erzeugen. Dabei sind für die verschiedensten Aufnahmen unterschiedliche Scan-Protokolle vorgesehen, d. h. es gibt beispielsweise Scan-Protokolle für verschiedene Körperbereiche, für verschiedene Aufnahmeverfahren und - bei einer Kontrastmitteluntersuchung - auch für die aufeinander folgenden Aufnahmen in den verschiedenen Kontrastmittelphasen. Dabei kann ein Scan-Protokoll insbesondere auch mehrere Teil-Protokolle umfassen, die so aufgebaut sind, dass automatisch Aufnahmen in den verschiedenen Kontrastmittelphasen gefertigt werden.
  • Das Dokument US 2003 / 0 036 694 A1 offenbart ein Verfahren zur Bestimmung von Parametern bei der Kontrastmittel-gestützten MR Angiographie.
  • In einen Kopfdatenbereich der Dateien, welche die angefertigten Bilddaten enthalten, können dann die zugehörigen Parameter hineingeschrieben werden, soweit sie für die spätere Auswertung nützlich sind. Bei dem derzeitig verwendeten Datenstandard DICOM (Digital Imaging and Communication in Medicine) enthalten die „DICOM-Dateien“ jeweils einen „DICOM-Header“, in dem diese Parameter enthalten sind. Dabei enthält der Parameter „series description“ (Serienbeschreibung) in der Regel auch Begriffe wie „nativ“, „arteriell“, „venös“ oder „spätvenös“, die die Kontrastmittelphase angeben. Diese ursprünglich vom Scan-Protokoll übernommenen Daten können also prinzipiell genutzt werden. Leider ist diese Information jedoch unzuverlässig, da sehr häufig von den Bedienern neue Scan-Protokolle für neue Aufnahmen dadurch erzeugt werden, dass ein bereits für andere Messaufgaben vorhandenes Scan-Protokoll kopiert wird und dann die Daten des Scan-Protokolls an die neue Messaufgabe angepasst werden. Ob und in welcher Form dabei jedoch alle Einträge sorgfältig angepasst werden, unterliegt der Willkür des Bedieners. Dies führt häufig dazu, dass in den Scan-Protokollen für den Bediener zunächst unwesentlich erscheinende Parameter, wie die „series description“, welche nur die Messung beschreiben, aber keine eigentliche Steuerauswirkung haben, nicht korrekt angepasst werden. Insbesondere bei einer späteren Auswertung der Bilddaten unter Verwendung dieser zusätzlichen, die Kontrastmittelphase während der Aufnahme beschreibenden Daten kann es dann zu Fehlern kommen.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur sicheren automatischen Kontrastmittelphasen-Klassifizierung von Bilddatensätzen und eine entsprechende Bilddatensatzklassifizierungseinrichtung zu schaffen.
  • Diese Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 sowie durch eine Bilddatensatzklassifizierungseinrichtung gemäß Patentanspruch 11 gelöst.
  • Bei dem erfindungsgemäßen Verfahren zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddatensätzen wird zumindest ein zu klassifizierender Bilddatensatz vom Inneren des Untersuchungsobjekts erfasst. Zudem werden zum Bilddatensatz gehörende Metadaten erfasst, wobei hierzu Körperbereichsdaten und/oder Messzeitdaten und/oder Kontrastdaten gehören. Unter Körperbereichsdaten sind dabei Daten zu verstehen, welche Informationen über eine vom Bilddatensatz erfasste Körperregion des Untersuchungsobjekts, z. B. den erfassten Scanbereich und/oder genaue Daten über eine bestimmte Zielstruktur enthalten. Zu den Messzeitdaten zählen Daten, welche Informationen über eine Messzeit des Bilddatensatzes enthalten, d. h. beispielsweise die relativen und/oder absoluten Scanzeiten, zu denen die Rohdaten für die jeweiligen Bilddaten gemessen wurden, aber auch Daten, um die Messzeiten relativ zu dem Zeitpunkt einer Kontrastmittelgabe zu bestimmen, d. h. die Zeitpunkte des Starts und des Stopps einer Kontrastmittelpumpe. Unter Hochkontrastdaten sind Daten zu verstehen, die Informationen über stark kontrastreiche Bildbereiche im Bilddatensatz enthalten, beispielsweise über aufgrund ihrer Intensitäten stark im Bild hervortretende Strukturen. Erfindungsgemäß erfolgt dann die Klassifizierung des Bilddatensatzes durch eine Zuordnung des Bilddatensatzes zu einer Kontrastmittelphase in Abhängigkeit von den Metadaten. Dabei werden vorzugsweise mindestens zwei der Metadaten von o. g. Metadaten-Typen, d. h. Körperbereichsdaten, Messzeitdaten und/oder Hochkontrastdaten, für die Klassifizierung genutzt. Besonders bevorzugt werden zur Erhöhung der Sicherheit Metadaten aller drei verschiedenen Metadaten-Typen genutzt.
  • Eine erfindungsgemäße Bilddatensatzklassifizierungseinrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von mittels eines bildgebenden Systems erzeugten Bilddatensätzen vom Inneren eines Untersuchungsobjekts weist zumindest folgende Komponenten auf:
    1. a) Eine Schnittstelle zur Erfassung zumindest eines Bilddatensatzes des Untersuchungsobjekts.
    2. b) Eine Metadaten-Ermittlungseinheit zur Ermittlung von zum Bilddatensatz gehörenden Metadaten der folgenden Metadatentypen: Körperbereichsdaten und/oder Messzeitdaten und/oder Hochkontrastdaten. Bei dieser Metadaten-Ermittlungseinheit kann es sich zum einen um eine Schnittstelle handeln, welche die Daten von anderen Geräten und Einrichtungen bzw. aus vorhandenen Datensätzen, insbesondere spezielle Metadatenbereiche der Bilddatensätze, z. B. den DICOM-Headern, entnimmt. Die Metadaten-Ermittlungseinheit kann aber auch Komponenten umfassen, welche die so übernommenen und/oder ggf. auch aus den Bildern selbst gewonnenen Daten analysiert und daraus weitere Metadaten erzeugt.
    3. c) Eine Zuordnungseinheit, um den Bilddatensatz in Abhängigkeit von den Metadaten einer Kontrastmittelphase zuzuordnen, d. h. die eigentliche Klassifizierung vorzunehmen.
  • Eine solche Bilddatensatzklassifizierungseinrichtung kann Teil eines bildgebenden Systems sein. Das heißt, das bildgebende System zum Erzeugen von Bilddatensätzen vom Inneren eines Untersuchungsobjekts, beispielsweise das Computertomographiesystem oder Magnetresonanzsystem, kann selbst eine erfindungsgemäße Bilddatenklassifizierungseinrichtung enthalten. Diese kann beispielsweise auf einem zum bildgebenden System gehörenden Rechner realisiert sein, auf dem aus den Rohdaten die Bilddaten rekonstruiert werden.
  • Grundsätzlich kann aber eine Realisierung einer solchen Bilddatensatzklassifizierungseinrichtung auch auf anderen Bildbearbeitungssystemen realisiert werden, welche beispielsweise über die Bilddatensätze vom bildgebenden System ein Netzwerk übernehmen. Ein Beispiel hierfür sind klassische Bildrechner in radiologischen Informationssystemen.
  • Dabei ist mit einem entsprechenden Computerprogrammprodukt, in dem die benötigten Schnittstellen, die Metadaten-Ermittlungseinheit und die Zuordnungseinheit in Form von Softwarekomponenten realisiert sind, auch ein Upgrade oder Update eines bestehenden bildgebenden Systems oder Bildbearbeitungssystems zur Schaffung einer erfindungsgemäßen Bilddatensatzklassifizierungseinrichtung möglich.
  • Die abhängigen Ansprüche enthalten jeweils besonders vorteilhafte Weiterbildungen und Ausgestaltungen der Erfindung, wobei die erfindungsgemäß ausgebildete Bilddatensatzklassifizierungseinrichtung auch entsprechend den Verfahrensansprüchen weitergebildet sein kann und umgekehrt.
  • Wie bereits oben erläutert, enthalten bei dem derzeit üblicherweise verwendeten DICOM-Datenformat die Dateien, die den Bilddatensatz enthalten, auch einen Metadatenbereich, den sogenannten DICOM-Header, in dem bereits Metadaten enthalten sind, die bei der Erstellung der Dateien aus den Scan-Protokollen übernommen wurden.
  • Vorzugsweise können daher zumindest Körperbereichsdaten und/oder Messzeitdaten aus einem solchen Metadatenbereich einer Anzahl von den Bilddatensatz enthaltenen Dateien übernommen werden. Bei den Körperbereichsdaten kann es sich beispielsweise um den im Scan-Protokoll festgelegten Scanbereich handeln. Hier kann z. B. eingetragen sein, ob es sich um eine Kopfuntersuchung, eine Thoraxuntersuchung, Leberuntersuchung etc. handelt. Die Messzeitdaten können absolute Messzeitdaten sein, die automatisch mitgeschrieben wurden. Vorzugsweise kann es sich bei den Messzeitdaten auch um relative Messzeiten des Bilddatensatzes bezogen auf den Zeitpunkt einer Kontrastmittelgabe handeln. Diese relativen Messzeitdaten können aber auch aus den absoluten Messzeiten gewonnen werden, sofern vom System genau mitgeschrieben wird, wann eine Kontrastmittelpumpe in Betrieb gesetzt und wieder abgestellt wurde. Wenn die Pumpe vom bildgebenden System angesteuert wird, können auch entsprechende Steuerdaten übernommen werden. Ebenso können die Messzeitdaten relative Messzeiten verschiedener Bilddatensätze des Untersuchungsobjekts umfassen.
  • Da, wie bereits erwähnt, der Bilddatensatz üblicherweise auf Basis eines oder mehrerer Scan-Protokolle erzeugt wurde, kann zumindest ein Teil der Metadaten aus den Scan-Protokollen stammen. Andere Metadaten, wie z. B. bestimmte Körperbereichsdaten und/oder Hochkontrastdaten, können vorzugsweise auch innerhalb eines automatischen Bildauswerteverfahrens aus dem Bilddatensatz selbst gewonnen werden. So können besonders kontrastreiche Strukturen, in denen sich viel Kontrastmittel angereichert hat, sehr einfach mit einem Schwellenwertverfahren in den Bilddaten ermittelt werden. Verschiedene Verfahren zur Bestimmung von Hochkontrastbereichen bzw. von bestimmten Strukturen mit hohen Kontrasten sind dem Fachmann grundsätzlich bekannt.
  • Besonders bevorzugt werden die verschiedenen Metadaten, wenn sie für die Zuordnung des Bilddatensatzes zu einer Kontrastmittelphase verwendet werden, untereinander auf Konsistenz geprüft, um so eine möglichst sichere richtige Klassifizierung zu gewährleisten.
  • Vorzugsweise sind den einzelnen Metadaten bzw. Metadatentypen jeweils Vertrauenswerte zugeordnet, die bei der Zuordnung des Bilddatensatzes zu einer Kontrastmittelphase berücksichtigt werden. Insbesondere ist eine solche Berücksichtigung innerhalb einer Konsistenzprüfung der verschiedenen Metadaten untereinander sinnvoll. Diese Vertrauenswerte werden den Metadaten besonders bevorzugt in Abhängigkeit von der Datenquelle, aus der die betreffenden Metadaten stammen, zugeordnet. Beispielsweise können alle Metadaten, die vom System automatisch erfasst werden, ohne dass der Bediener hierauf Einfluss hat, mit einem besonders hohen Vertrauenswert versehen sein. Das heißt, dass diese Metadaten mit sehr hoher Wahrscheinlichkeit richtig sind. Metadaten, die dagegen vom Bediener verändert werden können und die insbesondere aus den Scan-Protokollen entnommen werden können, die aber bei einer Abänderung der Scan-Protokolle ggf. nicht sorgfältig angepasst werden, haben dagegen nur einen geringen Vertrauenswert.
  • Die Vertrauenswerte können für die verschiedenen Metadaten, bzw. für die einzelnen Metadatentypen, sowie für die verschiedenen Datenquellen z. B. in einem Speicher hinterlegt sein.
  • Wird beispielsweise festgestellt, dass eine Inkonsistenz verschiedener Metadaten zueinander vorliegt, werden die Metadaten mit hohem Vertrauenswert bei der Klassifizierung stärker berücksichtigt, wogegen Metadaten mit geringem Vertrauenswert nur wenig oder gar nicht berücksichtigt werden. Ein Beispiel hierfür ist die Übernahme von Körperbereichsdaten in Form von im Scan-Protokoll hinterlegten Scanbereichsdaten, die einen relativ geringen Vertrauenswert haben, da nicht sicher ist, ob der Bediener die Daten fälschlich überschrieben oder nicht angepasst hat. Sind diese Daten nicht konsistent mit aus den Bilddatensätzen bestimmten Strukturen, die beispielsweise durch Ermittlung von Hochkontrastbereichen gewonnen wurden, so ist mit hoher Wahrscheinlichkeit davon auszugehen, dass die aus dem Scan-Protokoll übernommenen Körperbereichsdaten falsch sind. Ein solcher Fall liegt z. B. vor, wenn ein Bediener ein Kopf-Scan-Protokoll übernimmt und dieses anpasst, um eine Untersuchung eines Beins des Patienten durchzuführen, dabei aber vergisst, die Beschreibung des Scanbereichs (d. h. den Parameter „series description“ im Scan-Protokoll) von „Kopf“ in „Bein“ zu ändern. In diesem Fall würden automatisch aus dem Scan-Protokoll, d. h. aus dem Header der DICOM-Datei, falsche Körperbereichsdaten übernommen, die darauf hinweisen, dass es sich um eine Kopfuntersuchung handelt, wogegen aber mit Hilfe der Hochkontrastdaten bestimmt wurde, dass es sich bei dem untersuchten Bereich wohl um ein Bein handeln muss.
  • Sofern die Inkonsistenzen nicht auf Basis der Vertrauenswerte sowie der Analyse weiterer zusätzlicher Metadaten eindeutig beseitigt werden können, kann vorzugsweise auch ein Warnsignal an den Bediener ausgegeben werden, so dass dieser auf das Problem aufmerksam gemacht wird und er manuell durch entsprechende Dateneingabe die Inkonsistenz auflösen kann.
  • Wie an dem vorbeschriebenen Beispiel deutlich wird, kann bereits die Bestimmung des erfassten Körperbereichs problematisch sein. Daher weist die Bilddatensatzklassifizierungseinrichtung besonders bevorzugt eine Körperbereichsevaluierungseinheit auf, welche zunächst auf Basis der Körperbereichsdaten und/oder der Hochkontrastdaten automatisch die in einem Bilddatensatz abgebildete Zielstruktur, z. B. ein zu untersuchendes Organ oder die Aorta, identifiziert. Besonders bevorzugt wird diese Zielstruktur dabei gleich im Bild lokalisiert, d. h. entsprechende Koordinaten ermittelt. Somit können zugleich die in der Regel im Metadatenbereich der Bilddateien angegebenen Koordinaten geprüft und ggf. korrigiert oder eine Warnmeldung an einen Bediener ausgegeben werden.
  • Zur Bestimmung bzw. bei der Bearbeitung der Körperbereichsdaten können insbesondere auch verschiedene Bilddatensätze des Untersuchungsobjekts aufeinander registriert werden. Dies ist beispielsweise dann notwendig, wenn die Bilddatensätze mit großem zeitlichem Abstand zueinander aufgenommen wurden und der Patient beispielsweise zwischen zwei Messungen umgelagert bzw. neu gelagert wurde. Ein typischer Fall hierfür ist die Aufnahme in Folgeuntersuchungen, die einen bestimmten Verlauf zeigen sollen. Es müssen dann in der Regel Aufnahmen aus denselben Kontrastmittelphasen miteinander verglichen werden. Durch die Registrierung der verschiedenen Bilddatensätze aufeinander kann zunächst festgestellt werden, ob durch die Bilddatensätze auch wirklich dieselbe Körperregion abgedeckt wird.
  • Besonders wesentliche Parameter zur Bestimmung der Kontrastmittelphase sind naturgemäß die Messzeitdaten, insbesondere relative Messzeitdaten der Bilddatensätze zueinander und die relativen Messzeitdaten bezogen auf die Kontrastmittelgabe. Gemeinsam mit der identifizierten Zielstruktur kann so bereits eine Identifizierung der Kontrastmittelphase erfolgen. Bevorzugt weist die Bilddaten-Klassifizierungseinrichtung daher eine Messzeitauswertungseinheit auf, welche auf Basis der identifizierten Zielstruktur und der Messzeitdaten eine mögliche Kontrastmittelphase für einen Bilddatensatz identifiziert.
  • Besonders bevorzugt ist die Zuordnungseinheit mit der Messzeitauswertungseinheit so verknüpft, dass die Messzeitauswertungseinheit der Zuordnungseinheit einen Kontrastmittelphasen-Identifikator übergibt, welcher die identifizierte Kontrastmittelphase für den Bilddatensatz repräsentiert. Die Zuordnungseinheit ordnet dann den Bilddatensatz der betreffenden Kontrastmittelphase zu, wenn die Zuordnung mit aus dem Bilddatensatz ermittelten Hochkontrastdaten konsistent ist. Bei dem letzteren Vorgehen erfolgt also eine zweistufige Prüfung. Es wird zunächst in der Messzeitauswertungseinheit eine Art „Kandidaten-Kontrastmittelphase“ ermittelt. Es wird dann dieses Ergebnis an die Zuordnungseinheit übermittelt, welche prüft, ob die identifizierte Kontrastmittelphase tatsächlich konsistent zum Bilddatensatz ist. Wenn ja, erfolgt die entsprechende Klassifizierung.
  • Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen unter Hinweis auf die beigefügten Zeichnungen näher erläutert. Es zeigen:
    • 1 ein grob schematisches Schaubild des erfindungsgemäßen Verfahrens,
    • 2 ein schematisches Blockschaltbild einer erfindungsgemäßen Bilddatensatz-Klassifizierungseinrichtung,
    • 3 eine schematische Darstellung einer Registrierung von zwei Bilddatensätzen aufeinander,
    • 4 eine einfache grafische Darstellung des zeitlichen Verlaufs der arteriellen und venösen Kontrastmittelanflutung in unterschiedlichen Körperbereichen und
    • 5 eine schematische Darstellung eines Ausführungsbeispiels eines Computertomographiesystems mit einer integrierten Bilddatensatzklassifizierungseinrichtung.
  • Bei den folgenden Ausführungsbeispielen wird davon ausgegangen, dass es sich bei dem bildgebenden System um ein Computertomographiesystem handelt. Weiterhin wird davon ausgegangen, dass in der derzeit üblichen Weise die Bilddatensätze in Form von DICOM-Dateien vom bildgebenden System erstellt werden und der DICOM-Header bereits Metadaten enthält, die aus dem Scan-Protokoll zur Steuerung des Computertomographiesystems übernommen wurden. Die Erfindung ist aber nicht auf die Klassifizierung von Bilddatensätzen aus Computertomographiesystemen beschränkt. Ebenso ist die Erfindung nicht auf die Verwendung des DICOM-Standards beschränkt.
  • Wie 1 dargestellt, werden die Bilddatensätze BS in Form von DICOM-Dateien D, welche jeweils einen DICOM-Header H aufweisen, an eine erfindungsgemäße Bilddatenklassifizierungseinrichtung 30 übergeben. Diese weist eine Schnittstelle 48 zur Übernahme dieser Bilddatensätze BS sowie eine Metadaten-Ermittlungseinheit 35 auf, die hier in Form einer separaten Schnittstelle 35 dargestellt ist, welche die Metadaten aus dem Header H der Dateien D übernimmt. Neben entsprechenden Schnittstellenkomponenten, die auch Teil der Schnittstelle 48 sein können, weist die Metadaten-Ermittlungseinheit 35 aber auch weitere Komponenten auf, um auf andere Weise Metadaten zu ermitteln. Dies wird im Folgenden anhand von 2 näher erläutert.
  • Die Bilddatensatzklassifizierungseinrichtung 30 erhält zudem zusätzlich Vertrauensparameter VP, welche den verschiedenen Metadaten zugeordnet werden. Diese Vertrauensparameter VP beschreiben, wie sicher die in den jeweiligen Metadaten enthaltenen Informationen sind. Aus diesen Daten bestimmt die Bilddatensatzklassifizierungseinrichtung dann mit einer hohen Wahrscheinlichkeit, in welcher Kontrastmittelphase der vorliegende Bilddatensatz BS aufgenommen wurde, und trägt die ermittelte Kontrastmittelphase in Form einer Beschreibung, einer Kennung oder einer sonstigen beliebigen Datenkette, welche die Kontrastmittelphase repräsentiert, in den DICOM-Header H der Dateien D mit dem entsprechenden Bilddatensatz BS ein. Insbesondere kann der Parameter „series description“ im DICOM-Header oder eine entsprechende Angabe in einem Metadatenteil der Dateien passend eingetragen oder überschrieben werden.
  • Das Ergebnis sind dann modifizierte Dateien D', welche wiederum die besagten Eingangsbilddatensätze BS enthalten, aber einen modifizierten DICOM-Header H', in dem mit hoher Sicherheit die richtige Kontrastmittelphase eingetragen ist. Bilddaten-Nachverarbeitungsprogramme, die auf spezielle Bilddatensätze aus Kontrastmittelphasen zugreifen wollen, können diese Informationen dann auswerten. Ein Beispiel hierfür ist ein Bild-Nachbearbeitungsprogramm, welches für das automatische Auffinden von Läsionen eingerichtet ist (sog. „Computer Aided Detection = CAD; computerunterstützte Detektion). In solchen Bild-Nachverarbeitungseinrichtungen sind für jede Kontrastmittelphase modifizierte Algorithmen zur Bearbeitung der Bilddatensätze bereitgestellt.
  • Im Folgenden wird die Bilddatenklassifizierungseinrichtung 30 anhand von 2 näher erläutert. Die in 2 dargestellte Bilddatensatzklassifizierungseinrichtung 30 weist neben der eigentlichen Zuordnungseinheit 31 zusätzlich eine Messzeitauswertungseinheit 32 und eine Körperbereichsevaluierungseinheit 33 auf, deren Funktion im Weiteren noch näher erläutert wird. Diese Komponenten können insbesondere auch in einer Zuordnungseinheit 31 kombiniert sein.
  • Die Metadaten-Ermittlungseinheit 35 der Bilddatensatzklassifizierungseinrichtung 30 besteht hier aus einer Vielzahl von einzelnen Komponenten 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46. Diese Komponenten 36,...,46 können, ebenso wie die Zuordnungseinheit 31, die Messzeitauswertungseinheit 32 und die Körperbereichsevaluierungseinheit 33, in Form von Softwaremodulen aufgebaut sein. Die einzelnen Komponenten 36,...,46 der Metadaten-Ermittlungseinheit 35 können dabei einfache Softwareschnittstellen sein, welche beispielsweise jeweils bestimmte Metadaten, aus dem Header der DICOM-Dateien D bereits von anderen Komponenten erzeugte Metadaten, übernehmen. Es kann sich aber auch um Komponenten handeln, welche entweder aus den Bilddaten die jeweiligen Metadaten ermitteln bzw. extrahieren oder übernommene Metadaten weiterverarbeiten und daraus weitere Metadaten generieren.
  • Wie bereits erläutert, ist ein wesentlicher Punkt die genaue Festlegung der erfassten Körperregion bzw. des erfassten Organs. Zur Bestimmung der Körperregion gibt es verschiedene Metadaten. Zum einen schreibt das Scan-Protokoll beim Erstellen der Bilddatensätze die Körperregion in die sogenannte „series description“ des DICOM-Headers H ein. Dieser Parameter wird beispielsweise durch eine Leseeinheit 39 übernommen. Dabei wird zunächst in einer Logikeinheit 46 abgefragt, ob die „series description“ im DICOM-Header H der Bilddatenreihe tatsächlich eine Körperregion enthalten. Wenn ja, werden diese als erste Körperbereichsdaten KBD1 an die Körperbereichsevaluierungseinheit 33 übergeben. In dieser „series description“ kann vom Scan-Protokoll neben der Körperregion auch die Kontrastmittelphase direkt eingegeben sein. Da in der Praxis jedoch die Scan-Protokolle oft für andere als die ursprünglich geplante Anwendung verwendet werden, sind diese Werte KBD1 jeweils mit einem sehr niedrigen Vertrauensparameter versehen und müssen in der Regel gegen weitere Körperbereichsdaten KBD2, KBD3, KBD4 auf Konsistenz geprüft werden.
  • Neben der „series description“ gibt es im DICOM-Header noch einen weiteren DICOM-Eintrag (im Folgenden auch „DICOM-Tag“ genannt), der unmittelbar die Körperregion, wie beispielsweise „Abdomen“, „Pelvis“, „Chest“, „Neck“, „Head“ usw. beschreibt. Auch diese DICOM-Tags der Bilddatensätze werden aus dem Scan-Protokoll übernommen und sind demnach mit einem niedrigen Vertrauenswert zu versehen. Diese Daten werden mit einer Leseeinheit 40 aus dem Header H ausgelesen und als weitere Körperbereichsdaten KBD2 an die Körperbereichsevaluierungseinheit 33 übergeben, die diese wiederum auf Konsistenz mit den ersten Körperbereichsdaten KBD1 prüft.
  • Eine weitere Komponente 41 ist eine Bildauswertungseinheit 41, welche automatisch die Körperregion detektiert. Es existieren bereits geeignete Algorithmen, um mit hoher Zuverlässigkeit bestimmte Strukturen in Computertomographiedaten zu erkennen. Dadurch ist eine Zuweisung der erfassten Körperregion mit großer Vertrauenswürdigkeit möglich, so dass die von dieser Bildauswertungseinheit 41 erfassten Körperbereichsdaten KBD3 mit einem hohen Vertrauenswert versehen werden können. Dabei sind Knochen, wie z. B. Schädel, Rippen, Hüftknochen und die Knochen der Extremitäten von besonderem Interesse. Identifizierbar sind auch Datensätze, die mehrere Körperregionen beinhalten.
  • Üblicherweise befinden sich im Header der DICOM-Dateien auch sogenannte „DICOM-Koordinaten“, die die Koordinaten des Bilds in einer definierten Norm beschreiben. Diese Koordinaten beziehen sich auf einen virtuellen Nullpunkt, den sogenannten „Frame of Reference“, des Patienten-Koordinaten-Systems. Der „Frame of Reference“ ist eine Datenkette, auf deren Basis bestimmt werden kann, ob sich zwischen zwei Aufnahmen die Patientenposition auf dem Scanner des Computertomographiesystems geändert hat. Zumindest innerhalb einer Studie, die ohne Umlagerung des Patienten durchgeführt wurde, kann von einem festen „Frame of Reference“ ausgegangen werden. Dann stimmen in erster Näherung die DICOM-Koordinaten mit den Patienten-Koordinaten überein. Der „Frame of Reference“ im DICOM-HEader kann von einer Leseeinheit 43 erfasst werden und die hierauf definierten DICOM-Koordinaten von einer Leseeinheit 42. Diese Daten werden zunächst einer Scanbereichsprüfeinheit 44 übergeben.
  • In Nachsorgeuntersuchungen, in denen beispielsweise der Verlauf einer Krankheit abgeklärt werden soll, müssen dieselben Kontrastmittelphasen miteinander verglichen werden. Ist die Position der Erstuntersuchung, beispielsweise in Form von DICOM-Koordinaten, bekannt, kann daraus auch die Position der Nachfolgeuntersuchung abgeleitet werden. Dies funktioniert auch, wenn die Scanbereiche und Patienten-Positionen der zu vergleichenden Bilddatensätze unterschiedlich sind.
  • Um festzulegen, ob zwei Bilddatensätze dieselbe Körperregion abdecken, müssen diese zunächst aufeinander registriert werden. Dies erfolgt in einer Registrierungseinheit 45, welche das Ergebnis ebenfalls an die Scanbereichsprüfeinheit 44 liefert. Eine Registrierung ist in 3 schematisch dargestellt. Während einer Erstuntersuchung wurde ein erster Bilddatensatz BS1 erfasst, der den Scanbereich SB1 abdeckt. In einer Nachfolgeuntersuchung wird ein Bilddatensatz BS2 aufgenommen, welcher einen breiteren Scanbereich SB2 erfasst. Zudem ist der Patient gegenüber der Erstuntersuchung im Computertomographiegerät verschoben. Mit Hilfe der Registrierung REG werden die beiden Bilddatensätze aufeinander registriert, um so eine gemeinsame Referenz zu bestimmen. Ist die Referenz bekannt, so kann dann im Weiteren mit den DICOM-Koordinaten gearbeitet werden.
  • Die so ermittelten DICOM-Koordinaten, die ggf. durch eine Registrierung für verschiedene Bilddatensätze aufeinander abgeglichen werden, werden dann als weitere Körperbereichsdaten KBD4 an die Körperbereichsevaluierungseinheit 33 übergeben.
  • Es wird an dieser Stelle darauf hingewiesen, dass die verschiedenen, hier einzeln beschriebenen Leseeinheiten, um Daten aus dem DICOM-Header H auszulesen, auch durch eine gemeinsame Schnittstelle realisiert sein können, die sämtliche Daten auf einmal ausliest und an die entsprechenden Komponenten zur Weiterverarbeitung verteilt. Lediglich der Übersichtlichkeit halber wurde in 2 eine Darstellung einzelner Komponenten gewählt.
  • Die Körperbereichsevaluierungseinheit 33 prüft schließlich sämtliche Körperbereichsdaten KBD1, KBD2, KBD3, KBD4 unter Berücksichtigung der Vertrauensparameter auf Konsistenz und entscheidet dann, welche Körperregionen durch den Bilddatensatz dargestellt bzw. welche Organe abgebildet werden.
  • Zur weiteren Unterstützung kann die Körperbereichsevaluierungseinheit 33 auch Hochkontrastdaten HKD von einer Hochkontrast-Detektoreinheit 38 übernehmen. Die Gabe von Kontrastmittel führt in der arteriellen Phase in den Hauptarterien zu sehr hohen CT-Werten, die in den Bildern leicht detektiert werden können. Ist die Körperregion grob bekannt, so kann nach besonders signifikanten Strukturen in der betreffenden Körperregion gesucht werden. Beispielsweise kann gezielt im Abdomen nach der Aorta gesucht werden. Umgekehrt kann aufgrund der Gefäßgröße und -lage auf die Körperregion geschlossen werden, wobei die Vertrauenswürdigkeit mit dem Durchmesser des untersuchten Gefäßes abnimmt. Insofern kann den Hochkontrastdaten ein Vertrauenswert in Abhängigkeit von der detektierten Struktur, beispielsweise bei der Detektion von Arterien dem Arteriendurchmesser, zugeordnet werden. Dabei kann auch berücksichtigt werden, dass die Kontrastmittelanflutung durch einen teilweisen Verschluss eines Gefäßes derart reduziert werden kann, dass hohe Computertomographiewerte im Bild nur noch schwer erkennbar sind.
  • Eine weitere Komponente ist eine Scanzeit-Ermittlungseinheit 36, welche Messzeitdaten TMZ aus dem Header H der DICOM-Dateien D des Bilddatensatzes BS ausliest. Beim Scan werden üblicherweise das aktuelle Datum und die Uhrzeit im DICOM-Header H eingetragen. Da das System dies selbständig ausführt, ist die Vertrauenswürdigkeit hoch und die entsprechenden Messzeitdaten TMZ, welche die absoluten Messzeiten, d. h. die Zeiten, an denen die Rohdaten erfasst wurden, mit Datum und Uhrzeit enthalten, werden mit einem hohen Vertrauenswert versehen.
  • Mit einer Kontrastmittelzeit-Ermittlungseinheit 37 werden Start- und Endzeitpunkt der Kontrastmittelgabe als weitere Messzeitdaten TKG ermittelt und an die Messzeitauswertungseinheit 32 übergeben. Mit welchem Vertrauensparameter die Daten versehen werden, hängt davon ab, wie die Messzeitdaten TKG ermittelt wurden. Werden die Zeiten der Kontrastmittelpumpe über eine feste Kopplung zum Computertomographiesystem übertragen oder wird das Computertomographiesystem sogar von der Kontrastmittelpumpe angesteuert oder umgekehrt die Kontrastmittelpumpe vom Computertomographiesystem gesteuert, so sind die Messzeitdaten betreffend die Kontrastmittelgabe hoch vertrauenswürdig und werden dementsprechend mit einem hohen Vertrauensparameter versehen. Ist eine manuelle Eingabe vorgesehen, so müssen geringere Vertrauensparameter angesetzt werden.
  • Sofern der genaue Startpunkt und der Endpunkt der Kontrastmittelgabe bekannt sind, kann von der Messzeitauswertungseinheit aus den absoluten Scanzeiten TMZ und deren Rückrechnung relativ zu den Start- und Endpunkten der Kontrastmittelgabe sowie der Körperregion bzw. der von der Körperbereichsevaluierungseinheit 33 genau identifizierten Zielstruktur direkt auf die Kontrastmittelphase geschlossen werden.
  • Weiterhin lassen sich Hinweise auf die Kontrastmittelphase aus den relativen Messzeiten der verschiedenen Bilddatensätze erhalten. Bilddatensätze derselben Körperregion aus einer Studie (d. h. einer Serie von zusammengehörenden Bilddatensätzen während der Kontrastmitteluntersuchung) sind üblicherweise immer in der Reihenfolge „nativ“, „arteriell“, „venös“ und „spätvenös“, wobei allerdings nicht immer alle Phasen vorhanden sein müssen. Der Abstand zwischen dem Nativ-Scan und den Scans mit Kontrastmittel kann im Prinzip beliebig lang sein. Im praktischen Betrieb ist dies jedoch kaum der Fall. Ebenso könnte theoretisch der Nativ-Scan auch nach den Kontrastmittel-Scans aufgenommen werden, was aber in der Praxis ebenfalls sehr unüblich ist. Die Abstände zwischen den einzelnen Scans mit der Kontrastmittelgabe hängen von der Verteilung des Kontrastmittels im Körper ab. Als Beispiel für die Leber können beispielsweise 10 bis 20 Sek. für die arterielle Phase und 40 bis 75 Sek. für die spätvenöse Phase genannt werden. Mit einer Kontrastmittelgabe können auch unterschiedliche Körperregionen untersucht werden, z. B. zunächst die arterielle Phase der Lunge und daran anschließend im selben Scan die arterielle Phase der Leber. Auch aus den relativen Daten lassen sich also in Verbindung mit Informationen über die Körperregion Kontrastmittelphasen automatisch detektieren.
  • Die Funktionsweise der in 2 beschriebenen Bilddatenklassifizierungseinrichtung ist wie folgt:
    • In den meisten Fällen ist zunächst die Bestimmung der Körperregion zumindest eines Bilddatensatzes notwendig. Hierzu werden die DICOM-Tags „series description“ und „body part examined“ von den Leseeinheiten 39, 40 aus dem DICOM-Header ausgelesen und als Körperbereichsdaten KBD1, KDB2 gemeinsam mit automatisch von der Bildauswertungseinheit 41 detektierten Körperbereichsdaten KBD3 ausgewertet. Hierbei wird die Zuverlässigkeit der verschiedenen Parameter berücksichtigt.
  • In der Scanbereichsprüfeinheit 44 wird der Scanbereich mehrerer Bilddatensätze miteinander verglichen. Ist dieser gleich, so kann direkt aus den von der Leseinheit 42 ausgelesenen DICOM-Koordinaten abgeleitet werden, ob sie zur gleichen Körperregion gehören. Stellt sich in der Scanbereichsprüfeinheit 44 heraus, dass der „Frame of Reference“ der unterschiedlichen mit der Leseeinheit 43 eingelesenen Bilddatensätze verschieden ist, dann sind die DICOM-Koordinaten nicht unmittelbar vergleichbar. In diesem Fall werden mit Hilfe der Registrierungseinheit 45 zunächst die Bilddatensätze aufeinander registriert, um so eine gemeinsame Referenz zu schaffen.
  • In der Scanbereichsprüfeinheit 44 wird auch entschieden, ob ein Bilddatensatz verlängert ist, d. h. ob, wie in 3 auf der rechten Seite schematisch dargestellt, eine benachbarte Körperregion miterfasst wird. So ist es beispielsweise durchaus möglich, im Nativ-Scan den Thorax und das Abdomen zu erfassen und bei der nachfolgenden Kontrastmittelmessung im arteriellen Scan beispielsweise nur den Thorax zu untersuchen.
  • Wie bereits erläutert, können besonders einfach Bereiche mit hohen CT-Werten in den CT-Bildern, z. B. durch Schwellwertverfahren, detektiert werden. Dies erfolgt in der Hochkontrast-Detektionseinheit 38. Die dabei ermittelten Hochkontrastdaten können ebenfalls der Körperbereichsevaluierungseinheit 33 zur Verfügung gestellt werden.
  • Ist die erfasste Körperregion bereits erfolgreich detektiert, so wird beispielsweise im Brustbereich und im Abdomen mit Hilfe der Hochkontrastdaten gezielt die mit Kontrastmittel angereicherte Aorta gesucht. Die Zuweisung zu der „arteriellen Phase“ wird dadurch ermöglicht. Ist jedoch die Körperregion noch nicht oder nur mit geringer Zuverlässigkeit bekannt, beispielsweise aufgrund von Inkonsistenzen, dann kann aufgrund der Lage und Anzahl der Hochkontrastgefäße auf die Körperregion rückgeschlossen werden und so der Scanbereich noch besser verifiziert werden.
  • Sobald eine Zielstruktur ZS, beispielsweise eine bestimmte Körperregion und/oder ein bestimmtes Organ, eindeutig ermittelt ist, kann diese an die Messzeitauswertungseinheit 32 übergeben werden. Dort werden die Zeitdifferenzen der Datensätze sowie die relative Zeit zum Start und Ende der Kontrastmittelgabe zur Klassifizierung herangezogen. Zunächst wird dabei davon ausgegangen, dass Bilddatensätze mit Zeitdifferenzen unter einer bestimmten Zeitdifferenzschwelle von wenigen Minuten zu einer Untersuchung gehören.
  • 4 zeigt typische Zeiten von arterieller und venöser Kontrastmittelanflutung für eine Auswahl von Organen bzw. Körperregionen. Solche Werte können auch für andere Organe und Körperregionen festgelegt werden. Aufgetragen ist dabei jeweils auf verschiedenen hintereinander liegenden Zeitstrahlen tK, tL, tN, tB die Kontrastmittelintensität I in den Computertomographie-Bildern für verschiedene Organe bzw. Körperteile. tK ist der Zeitstrahl für den Kopf, tL der Zeitstrahl für die Leber, tN für die Nieren und tB für die Beine.
  • 4 zeigt dabei die Intensitätserhöhung jeweils nur grob schematisch. Die ersten Intensitätserhöhungen zeigen jeweils die arterielle Phase aK, aL, aN, aB, die zweiten Erhöhungen jeweils die venöse Phase vK, vL, vN, vB, wobei die venöse Phase vB für die Beine auch als spätvenöse Phase bezeichnet wird.
  • 4 zeigt deutlich, dass für die Beine und die Leber die Unterschiede mit einer scharfen Logik, z. B. mittels eines Schwellwerts, leicht trennbar sind. Für den Kopfbereich und die Nieren hingegen überlappen die Anflutungsbereiche aK, vK, aN, vN derart, dass hier eine unscharfe Logik vorteilhaft eingesetzt werden kann. Hierzu bietet sich bei der Auswertung der Einsatz eines Fuzzy-Entscheiders an, wobei die in 4 gezeigten Werte auch direkt für die sogenannte Fuzzyfizierung der Messzeitauswertungseinheit 32 verwendet werden kann.
  • Für den Fall, dass der absolute Zeitpunkt der Kontrastmittelgabe bekannt und vertrauenswürdig ist, kann auch gemäß 4 mit den absoluten Zahlenwerten, d. h. mit den relativen Zeiten zur Kontrastmittelgabe, gearbeitet werden. Andernfalls sind nur die Zeitdifferenzen der Einzel-Scans, d. h. der einzelnen Bilddatensätze, zueinander zu berücksichtigen.
  • Mit Hilfe der Messzeiten und der ermittelten Körperregion kann bereits in den meisten Fällen die Kontrastmittelphase ohne Probleme bestimmt werden. In 2 erfolgt das direkt in der Messzeitauswertungseinheit 32, die dann einen „Kandidaten-Kontrastmittelphasen-Indikator“ KMI an die Zuordnungseinheit 31 übermittelt bzw. einen entsprechenden Wert oder eine Datenkette, welche die ausgewählte Kontrastmittelphase repräsentiert. Die Zuordnungseinheit 31 prüft dann die erhaltene „Kandidaten-Kontrastmittelphase“ mit den Hochkontrastdaten auf Konsistenz und schreibt dann mittels der Schreibeinrichtung 47 die ermittelte Kontrastmittelphase oder einen hierfür repräsentativen Wert bzw. eine Datenkette in den Header H der Datei D, welche den Bilddatensatz enthält.
  • Selbstverständlich ist es auch möglich, dass die Zielstruktur ZS von der Körperbereichsevaluierungseinheit direkt an die Zuordnungseinheit 31 übergeben wird und die Messzeitauswertungseinheit lediglich die relativen und absoluten Messzeiten auswertet und diese dann auch an die Zuordnungseinheit 31 übergibt, so dass dort letztlich alleine die Kontrastmittelphase bestimmt wird.
  • Ein Beispiel für eine Bestimmung der Kontrastmittelphase wird anhand der nachfolgenden Tabelle gegeben. Hierbei wird vorausgesetzt, dass der „Frame of Reference“ für alle Bilddatensätze gleich ist und dass die „series description“ und der Parameter „body part examined“ im DICOM-Header jeweils „Thorax, Abdomen“ lautet. Das heißt, dass keine vernünftige Aussage möglich ist.
    SN HKD ZS Δt DICOM Koordinaten in z-Richtung Zuordnung
    1 Negativ Thorax Abdomen - 100...600mm 2: „native Phase“
    2 Positiv Thorax Abdomen 3min 100...600mm 1: „arterielle Phase“
    3 Negativ Abdomen 10s 350...600mm 4. „venöse Phase“ der Niere
    4 Negativ Abdomen 25s 300...500mm 5. „venöse Phase“ der Leber
    5 Negativ Abdomen 3min 300...500mm 3: „spätvenöse Phase“
  • Die erste Spalte der Tabelle enthält dabei eine Scannummer SN, d. h. die Nummer des Bilddatensatzes. Die zweite Spalte zeigt an, ob in den Hochkontrastdaten HKD jeweils eine bestimmte Struktur, hier die Aorta, identifiziert werden konnte (positiv = Aorta wurde gefunden, negativ = Aorta war nicht identifizierbar). Die dritte Spalte enthält die im Bilddatensatz identifizierte Zielstruktur ZS, hier den Körperbereich. Die vierte Spalte enthält die Zeitdifferenz Δt zum vorherigen Scan bzw. zum vorher aufgenommenen Bilddatensatz. Die fünfte Spalte enthält die DICOM-Koordinaten in z-Richtung und die sechste Spalte die getroffene Zuordnung.
  • Die erste Zuordnung, die sehr einfach getroffen werden konnte, war die Zuordnung des Scans Nr. 2. Hier wurde die arterielle Phase detektiert, da die Hochkontrastdetektion die Aorta gefunden hat. Somit gehört der Bilddatensatz aus dem Scan 2 eindeutig zur „arteriellen Phase“.
  • Im zweiten Schritt wurde dann der Bilddatensatz von Scan 1 zugeordnet. Da die DICOM-Koordinaten von Scan 1 und Scan 2 gleich sind und Scan 1 zeitlich vor dem Scan 2 liegt, handelt es sich hier um die „native Phase“.
  • Als drittes wurde dann die spätvenöse Phase dem Scan 5 zugeordnet. Dieser Scan 5 hat einen deutlich größeren zeitlichen Abstand zu Scan 4 und es handelt sich damit um die spätvenöse Phase, mit hoher Wahrscheinlichkeit um die Leber, da derartige Scans nur dort üblich sind.
  • Anschließend wird im Schritt 4 dem Scan 3 die venöse Phase der Niere zugeordnet. Gemäß 4 lässt die Zeitdifferenz Δt von Scan 3 auf die venöse Phase von Kopf oder Niere schließen. Die DICOM-Koordinaten schließen jedoch den Kopf aus. Aufgrund der Zeitdifferenz von Scan 4 zur arteriellen Phase von 35 Sek. handelt es sich eindeutig um einen venösen Scan der Leber.
  • Dieses Beispiel zeigt, wie die aufgenommenen Bilddatensätze automatisch und sicher einer Kontrastmittelphase zugeordnet werden können. Somit können mit entsprechender Sicherheit auch nachfolgend automatische Auswertungen der Bilddatensätze vorgenommen werden, die auf die richtigen Informationen über die Kontrastmittelphase angewiesen sind.
  • 5 zeigt abschließend ein Ausführungsbeispiel für ein Computertomographiesystem 1 zur Durchführung des erfindungsgemäßen Verfahrens. Ein wesentlicher Bestandteil ist hierbei der Scanner 2, welcher ein Gantrygehäuse 6 mit einer um einen Messraum 5 umlaufenden Röntgenquelle 3 und einen jeweils der Röntgenquelle 3 sich gegenüber befindenden, in der Regel ebenfalls umlaufenden Röntgendetektor 4 aufweist.
  • Zur Messung wird der Patient P in üblicher Weise auf einen Patiententisch 7 gelegt, welcher auf einem Basisteil beweglich gelagert ist, so dass der Patient P durch den Messraum 5 hindurch gefahren werden kann.
  • Es wird ausdrücklich darauf hingewiesen, dass es sich hierbei nur um ein Ausführungsbeispiel handelt und selbstverständlich die Erfindung auch in Systemen genutzt werden kann, in denen sich die Gantry entlang des Patienten bewegt und der Patient auf dem Tisch an einer festen Position liegt. Ebenso sind andere Arten von Detektoren verwendbar, beispielsweise sich entlang des gesamten Umfangs erstreckende Detektoren, die sich nicht mitbewegen, sondern bei denen lediglich die Röntgenröhre 5 rotiert. Weiterhin sind Varianten mit mehreren Röntgenröhren 5 oder andere Aufbauten möglich.
  • Gesteuert wird die Gantry mit ihren Komponenten über eine Steuereinrichtung 10, welche einen Prozessor 11, mehrere Schnittstellen 12, 13, 14, 15, und einen Speicher 16 besitzt. Über eine erste Schnittstelle 15 ist ein Terminal 18 zur Bedienung des Computertomographiesystems 1 angeschlossen. Eine weitere Schnittstelle 14 dient zur Verbindung mit einem Netzwerk 17, beispielsweise einem RIS-Netzwerk (RIS = Radiologisches Informationssystem) und/oder einem PACS-Netzwerk (PACS = Picture Archiving and Communication System). Über dieses Netzwerk 17 können Bilddaten und/oder Rohdaten zu Massenspeichern, Ausgabeeinheiten, Befundungsstationen, Workstations oder dergleichen übermittelt werden.
  • Über eine Steuerschnittstelle 12 kann über eine Steuerleitung 8 ein Signal an die Röntgenröhre 5 übermittelt werden, um diese passend anzusteuern. Hierüber kann auch die Gantry gesteuert werden. Der Einfachheit halber ist für alle Steueraufgaben nur schematisch eine gemeinsame Steuerschnittstelle 12 und nur eine Steuerleitung 8 gezeigt.
  • Um die jeweiligen Aufnahmen in der gewünschten Weise zu erzeugen, befindet sich auf dem Prozessor 11 auch eine Ansteuereinheit 19, welche in Form von Software realisiert ist. Diese Ansteuereinheit 19 übernimmt zur Ansteuerung des Scanners 2 für eine bestimmte Messung beispielsweise aus dem Speicher 16 bestimmte Scan-Protokolle SP. Üblicherweise enthält eine Steuereinrichtung 10 für ein Computertomographiesystem in einem Speicher 16 eine Vielzahl von solchen Scan-Protokollen SP für verschiedenste Untersuchungssituationen, wobei der Bediener über das Terminal 30 jeweils ein passendes Scan-Protokoll SP auswählen und ggf. modifizieren kann. Nach Start der Messung arbeitet dann das gesamte Computertomographiesystem 1 gemäß den Steuerparametern im ausgewählten Scan-Protokoll.
  • Über eine Rohdaten-Akquisitionsschnittstelle 13 werden über eine Datenleitung 9 aus dem Detektor 4 zu den passenden Zeitpunkten die Rohdaten akquiriert. Die gemessenen Rohdaten werden an eine Bildrekonstruktionseinheit 20 übermittelt, welche daraus die Bilddatensätze erstellt und in die DICOM-Dateien D schreibt.
  • Die DICOM-Dateien D werden dann an die erfindungsgemäße Bilddatensatzklassifizierungseinrichtung 30 übergeben, welche wie zuvor beschrieben arbeitet und die DICOM-Dateien D' dahingehend modifiziert, dass im Header H' die automatisch ermittelte, dem jeweiligen Bilddatensatz zugeordnete Kontrastmittelphase eingeschrieben wird. Hierzu kann die Bilddaten-Klassifizierungseinrichtung 30 auf die Werte in den Headern H der ursprünglichen DICOM-Dateien D zugreifen und zusätzlich Vertrauensparameter VP nutzen, die ebenfalls im Speicher 16 hinterlegt sind. Diese Vertrauensparameter VP können auch vom Bediener über das Terminal 18 verändert werden.
  • Die fertigen DICOM-Dateien D' können dann beispielsweise über die Schnittstelle 15 an das Terminal 18 des Bedieners ausgegeben werden oder über die Schnittstelle 14 und das Netzwerk 17 an andere Komponenten wie Sichtungsstationen, Archivierungsstationen oder Drucker etc. versendet werden.
  • Die Bildrekonstruktionseinheit 20 und die Bilddatensatzklassifizierungseinrichtung 30 sind hier in Form von Software auf dem Prozessor 11 realisiert. Grundsätzlich können die Bildrekonstruktionseinheit 20 und die Bilddatensatzklassifizierungseinrichtung 30 aber auch auf einem anderen am Netzwerk 17 angeschlossenen Rechner realisiert sein, an den zunächst die Rohdaten über das Netzwerk 17 übermittelt werden. Eine Verlagerung der gesamten oder eines Teils der Bildbearbeitung auf eine externe Workstation hat den Vorteil, dass die Steuereinrichtung 10 entlastet wird und somit schneller für weitere Messungen zur Verfügung steht.
  • Es ist klar, dass ein für die Erfindung genutztes Computertomographiesystem 1 darüber hinaus auch noch eine Vielzahl weiterer üblicher Komponenten aufweisen kann, die jedoch aus Gründen der Vereinfachung in 5 nicht weiter dargestellt sind und auch nicht weiter erläutert werden müssen, da sie dem Fachmann bekannt sind.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei dem vorhergehend detailliert beschriebenen Verfahren und der Systemarchitektur lediglich um bevorzugte Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen, soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständigkeit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließt der Begriff „Einheit“ nicht aus, dass diese aus mehreren Komponenten besteht, die gegebenenfalls auch räumlich verteilt sein können.

Claims (16)

  1. Verfahren zur automatischen Kontrastmittelphasen-Klassifizierung von mittels eines bildgebenden Systems (1) erzeugten Bilddatensätzen (BS, BS1, BS2) vom Inneren eines Untersuchungsobjekts (P) mit folgenden Verfahrensschritten: a) Erfassung zumindest eines Bilddatensatzes (BS, BS1, BS2) des Untersuchungsobjekts (P), b) Ermittlung von zum Bilddatensatz (BS, BS1, BS2) gehörenden Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4), umfassend - Körperbereichsdaten (KBD1, KBD2, KBD3, KBD4), welche Informationen über eine vom Bilddatensatz (BS, BS1, BS2) erfasste Körperregion (SB1, SB2) des Untersuchungsobjekts (P) enthalten, und/oder - Messzeitdaten (TMZ, TKG), welche Informationen über eine Messzeit des Bilddatensatzes (BS, BS1, BS2) enthalten, und/oder - Hochkontrastdaten (HKD), welche Informationen über stark kontrastreiche Bildbereiche im Bilddatensatz (BS, BS1, BS2) enthalten, und c) Zuordnung des Bilddatensatzes (BS, BS1, BS2) zu einer Kontrastmittelphase (aB, vH, aN, vN, aL, vL, aK, vK) in Abhängigkeit von den Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4) .
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die verschiedenen Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4) untereinander auf Konsistenz geprüft werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass den Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4) jeweils Vertrauenswerte (VP) zugeordnet werden, welche bei der Zuordnung des Bilddatensatzes (BS, BS1, BS2) zu einer Kontrastmittelphase (aB, vB, aN, vN, aL, vL, aK, vK) berücksichtigt werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Vertrauenswerte (VP) den Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4) jeweils in Abhängigkeit von einer Datenquelle, aus der die betreffenden Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4) stammen, zugeordnet werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Messzeitdaten (TMZ) eine relative Messzeit des Bilddatensatzes (BS, BS1, BS2) bezogen auf den Zeitpunkt (TKG) einer Kontrastmittelgabe umfassen.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Messzeitdaten (TMZ) relative Messzeiten verschiedener Bilddatensätze (BS, BS1, BS2) des Untersuchungsobjekts (P) zueinander umfassen.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass Körperbereichsdaten (KBD1, KBD2, KBD3, KBD4) und/oder Messzeitdaten (TMZ, TKG) aus einem Metadatenbereich (H) einer Anzahl von den Bilddatensatz (BS, BS1, BS2) enthaltenden Dateien (D) übernommen werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass Körperbereichsdaten (KBD1, KBD2, KBD3, KBD4) und/oder Hochkontrastdaten (HKD) innerhalb eines automatischen Bildauswerteverfahrens aus dem Bilddatensatz (BS, BS1, BS2) gewonnen werden.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass der Bilddatensatz (BS, BS1, BS2) auf Basis einer Anzahl von Scan-Protokollen (SP) erzeugt wurde und zumindest ein Teil der Metadaten (TMZ, TKD, KBD1, KBD2, KBD3, KBD4) aus den Scan-Protokollen (SP) übernommen werden.
  10. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass zur Bestimmung von Körperbereichsdaten (KBD4) verschiedene Bilddatensätze (BS1, BS2) des Untersuchungsobjekts (P) aufeinander registriert werden.
  11. Bilddatensatzklassifizierungseinrichtung (30) zur automatischen Kontrastmittelphasen-Klassifizierung von mittels eines bildgebenden Systems (1) erzeugten Bilddatensätzen (BS) vom Inneren eines Untersuchungsobjekts (P), mit a) einer Schnittstelle (36) zur Erfassung zumindest eines Bilddatensatzes des Untersuchungsobjekts (P), b) einer Metadatenermittlungseinheit (35) zur Ermittlung von zum Bilddatensatz (BS) gehörenden Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4), umfassend - Körperbereichsdaten (KBD1, KBD2, KBD3, KBD4), welche Informationen über eine vom Bilddatensatz (BS, BS1, BS2) erfasste Körperregion (SB1, SB2) des Untersuchungsobjekts (P) enthalten, und/oder - Messzeitdaten (TMZ, TKD), welche Informationen über eine Messzeit des Bilddatensatzes (BS, BS1, BS2) enthalten, und/oder - Hochkontrastdaten (HKD), welche Informationen über stark kontrastreiche Bildbereiche im Bilddatensatz (BS, BS1, BS2) enthalten, und c) einer Zuordnungseinheit (31), um den Bilddatensatz (BS, BS1, BS2) in Abhängigkeit von den Metadaten (HKD, TMZ, TKG, KBD1, KBD2, KBD3, KBD4) einer Kontrastmittelphase (aB, vH, aN, vN, aL, vL, aK, vK) zuzuordnen.
  12. Bilddatensatzklassifizierungseinrichtung nach Anspruch 11, gekennzeichnet durch eine Körperbereichsevaluierungseinheit (33), welche auf Basis der Körperbereichsdaten (KBD1, KBD2, KBD3, KBD4) und/oder der Hochkontrastdaten (HKD) automatisch eine im Bilddatensatz abgebildete Zielstruktur (ZS) identifiziert.
  13. Bilddatensatzklassifizierungseinrichtung nach Anspruch 11 oder 12, gekennzeichnet durch eine Messzeitauswertungseinheit, welche auf Basis der identifizierten Zielstruktur (ZS) und der Messzeitdaten (TMZ, TKD) eine mögliche Kontrastmittelphase (aB,... ,vK) für einen Bilddatensatz (BS, BS1, BS2) identifiziert.
  14. Bilddatensatzklassifizierungseinrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Zuordnungseinheit (31) mit der Messzeitauswertungseinheit (32) so verknüpft ist, dass die Messzeitauswertungseinheit der Zuordnungseinheit (31) einen Kontrastmittelphasen-Identifikator (KMI) übergibt, welcher die identifizierte Kontrastmittelphase (aB, vB, aN, vN, aL, vL, aK, vK) für den Bilddatensatz (BS, BS1, BS2) repräsentiert, und die Zuordnungseinheit (31) den Bilddatensatz (BS, BS1, BS2) der betreffenden Kontrastmittelphase (aB,...,vK) zuordnet, wenn die Zuordnung mit aus dem Bilddatensatz (BS, BS1, BS2) ermittelten Hochkontrastdaten (HKD) konsistent ist.
  15. Bildgebendes System (1) zum Erzeugen von Bilddatensätzen (BS, BS1, BS2) vom Inneren eines Untersuchungsobjekts (P) umfassend eine Bilddatensatzklassifizierungseinrichtung (38) nach einem der Ansprüche 11 bis 14.
  16. Computerprogrammprodukt, welches direkt in einen Speicher eines Bildbearbeitungssystems ladbar ist, mit Programmcode-Mitteln, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 10 auszuführen, wenn das Programmprodukt auf dem Bildbearbeitungssystem ausgeführt wird.
DE102008005923.4A 2008-01-24 2008-01-24 Verfahren und Einrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddaten Active DE102008005923B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102008005923.4A DE102008005923B4 (de) 2008-01-24 2008-01-24 Verfahren und Einrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddaten
US12/320,247 US8693757B2 (en) 2008-01-24 2009-01-22 Method and device for the automatic contrast medium phase classification of image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008005923.4A DE102008005923B4 (de) 2008-01-24 2008-01-24 Verfahren und Einrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddaten

Publications (2)

Publication Number Publication Date
DE102008005923A1 DE102008005923A1 (de) 2009-07-30
DE102008005923B4 true DE102008005923B4 (de) 2022-07-07

Family

ID=40794368

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008005923.4A Active DE102008005923B4 (de) 2008-01-24 2008-01-24 Verfahren und Einrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddaten

Country Status (2)

Country Link
US (1) US8693757B2 (de)
DE (1) DE102008005923B4 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7787672B2 (en) 2004-11-04 2010-08-31 Dr Systems, Inc. Systems and methods for matching, naming, and displaying medical images
US7885440B2 (en) 2004-11-04 2011-02-08 Dr Systems, Inc. Systems and methods for interleaving series of medical images
US7920152B2 (en) 2004-11-04 2011-04-05 Dr Systems, Inc. Systems and methods for viewing medical 3D imaging volumes
US7660488B2 (en) 2004-11-04 2010-02-09 Dr Systems, Inc. Systems and methods for viewing medical images
US7970625B2 (en) 2004-11-04 2011-06-28 Dr Systems, Inc. Systems and methods for retrieval of medical data
US7953614B1 (en) 2006-11-22 2011-05-31 Dr Systems, Inc. Smart placement rules
US8755635B2 (en) * 2008-08-11 2014-06-17 Siemens Aktiengesellschaft Method and system for data dependent multi phase visualization
US8380533B2 (en) 2008-11-19 2013-02-19 DR Systems Inc. System and method of providing dynamic and customizable medical examination forms
KR101698561B1 (ko) * 2009-03-26 2017-01-20 코닌클리케 필립스 엔.브이. 관류 이미징
US8712120B1 (en) 2009-09-28 2014-04-29 Dr Systems, Inc. Rules-based approach to transferring and/or viewing medical images
US9092727B1 (en) 2011-08-11 2015-07-28 D.R. Systems, Inc. Exam type mapping
DE102012201169A1 (de) * 2012-01-27 2013-08-01 Siemens Aktiengesellschaft Automatische Registrierung von Bildpaaren von medizinischen Bilddatensätzen
US9495604B1 (en) 2013-01-09 2016-11-15 D.R. Systems, Inc. Intelligent management of computerized advanced processing
WO2014199995A1 (ja) * 2013-06-11 2014-12-18 株式会社 東芝 X線コンピュータ断層撮影装置、およびスキャン開始タイミング決定方法
US10929508B2 (en) 2015-04-30 2021-02-23 Merge Healthcare Solutions Inc. Database systems and interactive user interfaces for dynamic interaction with, and indications of, digital medical image data
JP6660741B2 (ja) * 2016-01-20 2020-03-11 富士フイルム医療ソリューションズ株式会社 画像抽出装置、画像抽出方法
US11263481B1 (en) 2021-01-28 2022-03-01 International Business Machines Corporation Automated contrast phase based medical image selection/exclusion
US11744535B2 (en) * 2021-03-23 2023-09-05 International Business Machines Corporation Automated population based assessment of contrast absorption phases

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030036694A1 (en) 2001-08-16 2003-02-20 Marconi Medical Systems, Inc. System for assistance of parameter determination and diagnosis in mri dynamic uptake studies

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346381B2 (en) * 2002-11-01 2008-03-18 Ge Medical Systems Global Technology Company Llc Method and apparatus for medical intervention procedure planning
US20040250155A1 (en) * 2003-05-19 2004-12-09 Stefan Weichselbaum Aspect based recovery system and method
JP4905967B2 (ja) * 2007-03-02 2012-03-28 富士フイルム株式会社 類似症例検索装置、方法、およびプログラム
US8335359B2 (en) * 2007-07-20 2012-12-18 General Electric Company Systems, apparatus and processes for automated medical image segmentation
US8194955B2 (en) * 2007-09-21 2012-06-05 Siemens Aktiengesellschaft Method and system for detection of contrast injection in fluoroscopic image sequences

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030036694A1 (en) 2001-08-16 2003-02-20 Marconi Medical Systems, Inc. System for assistance of parameter determination and diagnosis in mri dynamic uptake studies

Also Published As

Publication number Publication date
DE102008005923A1 (de) 2009-07-30
US20090190840A1 (en) 2009-07-30
US8693757B2 (en) 2014-04-08

Similar Documents

Publication Publication Date Title
DE102008005923B4 (de) Verfahren und Einrichtung zur automatischen Kontrastmittelphasen-Klassifizierung von Bilddaten
DE102005029242B4 (de) Verfahren zur Aufnahme und Auswertung von Bilddaten eines Untersuchungsobjekts und dazugehörige Einrichtung
DE10311319B4 (de) Verfahren, System und Computerprodukt zur Planung eines Herzinterventionsverfahrens
DE10322739B4 (de) Verfahren zur markerlosen Navigation in präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-C-Bogen-Bildes
DE10322738A1 (de) Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
EP3640894B1 (de) Verfahren zur rekonstruktion eines bilddatensatzes der computertomographie, computertomographieeinrichtung, computerprogramm und elektronisch lesbarer datenträger
EP2648122B1 (de) Verfahren zum Laden von medizinischen Bilddaten sowie Vorrichtung zur Durchführung des Verfahrens
EP3449830A1 (de) Steuerung eines medizintechnischen bildgebenden systems
DE102010012797B4 (de) Rechnergestützte Auswertung eines Bilddatensatzes
DE102008002882A1 (de) System und Verfahren zu von einer elektronischen Krankenakte beeinflusster Datenerfassung, -verarbeitung und -anzeige
DE102004055768A1 (de) Verfahren und Systeme für die computerunterstützte zielgerechte Bildgebung
DE102012201169A1 (de) Automatische Registrierung von Bildpaaren von medizinischen Bilddatensätzen
DE102007026520A1 (de) Bildakquisitons-, Bildarchivierungs- und Bildrenderingsystem zur Reproduzierung von eingestellten Untersuchungsparametern einer CT-, PET-CT- bzw. MRT- gestützten Erstuntersuchung bei nachfolgenden radiologischen Kontrolluntersuchungen
DE102006012015A1 (de) Verfahren und Systeme zur Überwachung einer Tumorbelastung
DE102016219887A1 (de) Verfahren und System zur Nutzung von Messdaten
DE112005001741T5 (de) System und Verfahren zur Baumprojektion zur Erkennung von Lungenembolie
DE102011079270B4 (de) Verfahren und ein CT-System zur Aufnahme und Verteilung von Ganzkörper-CT-Daten eines polytraumatisierten Patienten
DE102022112136A1 (de) Medizinisches bildanalysegerät, verfahren und medizinisches bild, visualisierungsgerät und verfahren
DE102011083629A1 (de) Bestimmung von potentiellen Perfusionsdefekten
DE102012214513A1 (de) Automatisierte Qualitätskontrolle für ein Röntgenbild
DE112017001335T5 (de) System und Verfahren für progressive Abbildung
EP3084651A1 (de) Automatische dosissteuerung für bildgebende medizinische einrichtungen
DE102012200782A1 (de) Verfahren zur Ansteuerung einer Bildaufnahmeeinrichtung und Bildaufnahmeeinrichtung
DE102014201321A1 (de) Bestimmung von Läsionen in Bilddaten eines Untersuchungsobjekts

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R016 Response to examination communication
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE