DE102010017432A1 - Vorrichtung und Verfahren zum Isolieren eines Gebietes in einem Bild - Google Patents

Vorrichtung und Verfahren zum Isolieren eines Gebietes in einem Bild Download PDF

Info

Publication number
DE102010017432A1
DE102010017432A1 DE102010017432A DE102010017432A DE102010017432A1 DE 102010017432 A1 DE102010017432 A1 DE 102010017432A1 DE 102010017432 A DE102010017432 A DE 102010017432A DE 102010017432 A DE102010017432 A DE 102010017432A DE 102010017432 A1 DE102010017432 A1 DE 102010017432A1
Authority
DE
Germany
Prior art keywords
image data
data set
computer
functional
anatomical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102010017432A
Other languages
English (en)
Inventor
Patrick Michael Waukesha Virtue
Gopal B. Menomonee Falls Avinash
Zhongmin New Berlin Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102010017432A1 publication Critical patent/DE102010017432A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4808Multimodal MR, e.g. MR combined with positron emission tomography [PET], MR combined with ultrasound or MR combined with computed tomography [CT]
    • G01R33/481MR combined with positron emission tomography [PET] or single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Abstract

Ein System, ein Verfahren und eine Vorrichtung enthalten ein Computer-lesbares Speichermedium mit einem darauf gespeicherten Computerprogramm, das Instruktionen enthält, die einen Computer veranlassen, auf einen ersten anatomischen Bilddatensatz eines mittels einer morphologischen Bildgebungsmodalität erfassten Abbildungsobjekts zuzugreifen (102), auf einen funktionalen Bilddatensatz des mittels einer funktionalen Abbildungsmodalität erfassten Abbildungsobjektes, zuzugreifen (104), den ersten anatomischen Bilddatensatz mit dem funktionalen Bilddatensatz zur Deckung zu bringen (106), den funktionalen Bilddatensatz auf der Basis des funktionalen Bilddatensatzes zu segmentieren (108), eine binäre Maske auf der Basis des segmentierten funktionalen Bilddatensatzes zu definieren (110), die binäre Datenmaske auf den ersten anatomischen Bilddatensatz anzuwenden (112), um einen zweiten anatomischen Bilddatensatz und darauf basierendes ein Bild zu konstruieren. Der zweite anatomische Bilddatensatz ist im Wesentlichen frei von Bilddaten des ersten anatomischen Bilddatensatzes, die mit einem Bereich außerhalb des Gebietes physiologischer Aktivität korrelieren.

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft allgemein die Erzeugung eines Abbildungsdatensatzes, und insbesondere die Erzeugung eines Abbildungsdatensatzes, der ein isoliertes Gebiet oder Bereich eines Objekts darstellt.
  • Morphologische Bilddaten, auch als anatomische oder strukturelle Bilddaten (im Gegensatz zu funktionellen Bilddaten) bekannt, enthalten oft aussagekräftige Details. Beispielsweise liefern morphologische MR-Kopfbilddaten oft detaillierte Information über den anatomischen Aufbau des Gehirns. Um Abschnitte oder Gebiete des Gehirns zu analysieren oder zu quantifizieren, wird oft eine Segmentierung der in den Kopfbilddaten gefundenen morphologischen Gehirnbilddaten angewendet. Jedoch enthalten Kopfbilddaten oft auch Schädelbilddaten, und bevor eine derartige Segmentation der Gehirnbilddaten erfolgen kann, ist es erwünscht, zuerst die Gehirnbilddaten von den Schädelbilddaten zu trennen. D. h., dass es in einem solchen Falle schwierig sein kann, Gehirngewebedaten zu analysieren oder zu quantifizieren, bevor Nicht-Gehirngewebedaten von Gehirngewebedaten segmentiert werden. Somit wird oft zuerst eine Segmentationstechnik zum Segmentieren der Gehirngewebedaten von den Nicht-Gehirngewebedaten, wie z. B. Schädeldaten, angewendet. Sobald sie segmentiert sind, ermöglichen die isolierten Gehirngewebedaten es Bildverarbeitungsalgorithmen leichter unterschiedlicher Gewebe oder Gebiete in dem Gehirn zu segmentieren und quantitative Daten aus den morphologischen Gehirndaten zu erzeugen. Ein Beispiel quantitativer Gehirndaten ist die Dicke des zerebralen Cortex, welche unter anderem bei Untersuchungen bezüglich Demenz, Migräne und Intelligenz von Interesse ist.
  • Die Detailmenge in einigen morphologischen Bilddaten machen die Daten reich an Information, aber die Details können es auch schwierig machen, sie aus den interessierenden Gebieten zu segmentieren. Beispielsweise kann es der in einem morphologischen Bilddatensatz dargestellte Detailgrad schwierig machen, ein Gehirndetail von umgebenden Details, wie z. B. den Augen, dem Schädel oder anderen umgebenden Geweben, zu isolieren. Dieselben Details können es auch schwierig machen, eine Gehirn- von Nicht-Gehirn-Gewebe trennende 3D-Kontur zu erzeugen. Segmentation kann direkt an solchen Datensätzen eingesetzt werden, aber dieses kann eine rechnerisch und algorithmisch schwierige Aufgabe sein. Ähnliche Schwierigkeiten entstehen, wenn versucht wird, andere Gebiete oder Bereiche außer dem Gehirn eines Patienten zu quantifizieren.
  • Es wäre daher wünschenswert, über ein System und Verfahren zu verfügen, das in der Lage ist, effizient Gebiete eines Abbildungsobjekts für eine spätere Quantifizierung zu isolieren.
  • Kurzbeschreibung der Erfindung
  • Gemäß einem Aspekt der Erfindung besitzt ein Computer-lesbares Speichermedium ein darauf gespeichertes Computerprogramm. Das Computerprogramm enthält Instruktionen, welche, wenn sie von einem Computer ausgeführt werden, den Computer veranlassen, auf einen ersten anatomischen Bilddatensatz eines mittels einer morphologischen Bildgebungsmodalität erfassten Abbildungsobjekts zuzugreifen, auf einen funktionalen Bilddatensatz des mittels einer funktionalen Abbildungsmodalität erfassten Abbildungsobjektes, das wenigstens einen biologischen Prozess abbildet, zuzugreifen, den ersten anatomischen Bilddatensatz mit dem funktionalen Bilddatensatz zur Deckung zu bringen, den funktionalen Bilddatensatz auf der Basis eines Gebietes physiologischer Aktivität des funktionalen Bilddatensatzes zu segmentieren, eine binäre Maske auf der Basis des segmentierten funktionalen Bilddatensatzes zu definieren, die binäre Datenmaske auf den ersten anatomischen Bilddatensatz anzuwenden, um einen zweiten anatomischen Bilddatensatz zu konstruieren, und ein Bild auf der Basis des zweiten anatomischen Datensatzes zu konstruieren. Der zweite anatomische Bilddatensatz ist im Wesentlichen frei von Bilddaten des ersten anatomischen Bilddatensatzes, die mit einem Bereich außerhalb des Gebietes physiologischer Aktivität korrelieren.
  • Gemäß einem weiteren Aspekt der Erfindung beinhaltet ein Bildrekonstruktionsverfahren die Gewinnung eines von dem Objekt mittels einer morphologischen Bildgebungsmodalität erfassten ersten Datensatzes von Abbildungsdaten eines anatomischen Gebietes eines Objekts und die Gewinnung eines von dem Objekt mittels einer funktionalen Bildgebungsmodalität erfassten zweiten Datensatzes. Der zweite Datensatz enthält Abbildungsdaten wenigstens eines biologischen Prozesses des Objekts. Das Verfahren beinhaltet auch das zur Deckung bringen des ersten Datensatzes mit dem zweiten Datensatz, die Segmentierung des zweiten Datensatzes, um einen dritten Datensatz mit einem Maskierungsdatensatz zu erzeugen, der mit dem ersten Datensatz zur Deckung gebracht ist, die Erzeugung eines vierten Datensatzes aus dem ersten Datensatz auf der Basis des Maskierungsdatensatzes, die Konstruktion eines Bildes aus dem vierten Datensatz und die Quantifizierung eines Gebietes in dem Bild. Der vierte Datensatz ist ein Untersatz des ersten Datensatzes.
  • Gemäß noch einem weiteren Aspekt der Erfindung beinhaltet ein Verfahren das zur Deckung bringen eines mittels einer morphologischen Bildgebungsmodalität von einem Abbildungsobjekt erfassten ersten Datensatzes mit einem von dem Abbildungsobjekt mittels einer funktionalen Bildgebungsmodalität erfassten zweiten Datensatzes, eine Segmentierung des zweiten Datensatzes, um eine mit dem ersten Datensatz zur Deckung gebrachte Abbildungsmaske zu erzeugen. Die Abbildungsmaske beinhaltet einen den physiologischen Aktivitätsdaten in dem zweiten Datensatz entsprechenden Bereich. Das Verfahren beinhaltet auch die Erzeugung eines dritten Datensatzes auf der Basis der Abbildungsmaske, eine Quantifizierung eines Gebietes des Abbildungsobjekts auf der Basis des dritten Datensatzes, um einen quantitativen Wert des Gebietes zu ermitteln, und die Anzeige des quantitativen Wertes an einen Benutzer. Der dritte Datensatz enthält Daten aus dem ersten Datensatz, ist jedoch im Wesentlichen frei von Daten aus dem ersten Datensatz, die mit Daten außerhalb des Bereichs korrelieren.
  • Verschiedene weitere Merkmale und Vorteile werden aus der nachstehenden detaillierten Beschreibung und den Zeichnungen ersichtlich.
  • Kurzbeschreibung der Zeichnungen
  • Die Zeichnungen veranschaulichen derzeit für die Ausführung der Erfindung in Betracht gezogene Ausführungsformen.
  • In den Zeichnungen ist:
  • 1 ein Flussdiagramm, das eine Technik zur Ausführung einer Ausführungsform der Erfindung darstellt.
  • 2 eine schematische Blockdarstellung eines exemplarischen Magnetresonanz-(MR)-Bildgebungssystems zur Verwendung mit Ausführungsformen der Erfindung.
  • 3 eine schematische Darstellung eines exemplarischen Computertomographie-(CT)-Systems zur Verwendung mit Ausführungsformen der Erfindung.
  • 4 eine schematische Darstellung eines exemplarischen Positronen-Emisions-Tomographie-(CT)-Systems zur Verwendung mit Ausführungsformen der Erfindung
  • Detaillierte Beschreibung
  • In 1 ist ein eine Bildgebungstechnik 100 veranschaulichendes Flussdiagramm gemäß einer Ausführungsform der Erfindung dargestellt. Die Technik 100 beginnt mit einem Block 102, wo auf einen von einem Abbildungsobjekt erfassten ersten anatomischen Bilddatensatz zugegriffen oder dieser gewonnen wird. Der erste anatomische Bilddatensatz ist ein mittels einer anatomischen oder morphologischen Bildgebungsmodalität erfasster anatomischer Datensatz. Die morphologische Bildgebungsmodalität kann beispielsweise eine Magnetresonanz-(MR)-Bildgebungsmodaliltät oder eine Computertomographie-(CT)-Bildgebungsmodalität sein. Ein mittels anderer morphologischer Bildgebungsmodalitäten erfasster anatomischer Bilddatensatz wird ebenfalls in Betracht gezogen.
  • Im Wesentlichen geben morphologische Bildgebungsmodalitäten oder -vorrichtungen anatomische oder strukturelle Bilddaten aus. Eine morphologische Bildgebungsmodalität ist im Kontrast zu einer funktionalen Bildgebungsmodalität oder -vorrichtung, wie z. B. einer funktionalen MR-Bildgebungs-(fMRI)-Modalität, eine Positronen-Emissions-Tomographie-(PET)-Bildgebungsmodalität oder eine nuklearmedizinische Bildgebungsmodalität. Funktionale Bildgebungsmodalitäten bilden funktionale Prozesse (z. B. physiologische Aktivität) eines Objekts ab. Oft liefern mittels einer funktionalen Bildgebungsmodalität erfasste Bilddaten Bilder, die einen starken Kontrast zwischen Gebieten mit und ohne spezielle physiologische Aktivität zeigen. Es ist anzumerken, dass eine Kombination sowohl morphologischer als auch funktionaler Bildgebungsmodalitäten in nur einer ”Vorrichtung” verkörpert sein kann. Beispielsweise kann eine Vorrichtung sowohl CT-Bildgebungsfähigkeiten als auch PET-Bildgebungsfähigkeiten enthalten.
  • Nach Zugriff auf den über eine morphologische Bildgebungsmodalität erfassten ersten anatomischen Bilddatensatz geht die Prozesssteuerung zum Block 104 über, wo auf einen von dem Abbildungsobjekt erfassten funktionalen Bilddatensatz zugegriffen wird oder ein solcher gewonnen wird. Der funktionale Bilddatensatz wird mittels einer funktionalen Bildgebungsmodalität, wie z. B. fMRI oder PET erfasst.
  • Obwohl 1 einen Zugriff auf den ersten anatomischen Bilddatensatz vor dem funktionalen Bilddatensatz darstellt, wird es in Betracht gezogen, dass auf den funktionalen Bilddatensatz vor dem ersten anatomischen Bilddatensatz zugegriffen werden kann.
  • Nach Zugriff auf den funktionalen Bilddatensatz geht die Prozesssteuerung zu dem Block 106 über, wo der funktionale Datensatz mit dem ersten anatomischen Bilddatensatz zur Deckung gebracht wird. Das gegenseitige zur Deckung bringen der anatomischen und funktionalen Bilddatensätze bringt die anatomischen und funktionalen Bilddatensätze in demselben Koordinatensystem zur Deckung. Demzufolge werden einer oder mehrere Bereiche oder Gebiete des Objekts sowohl in dem ersten anatomischen Bilddatensatz als auch dem funktionalen Bilddatensatz gegenseitig zur Deckung gebracht.
  • Mit dem Übergang zum Block 108 wird dann der funktionale Bilddatensatz segmentiert, um wenigstens ein Gebiet oder einen Bereich physiologischer Aktivität zu isolieren. Somit basiert die Segmentation auf in dem funktionalen Bilddatensatz dargestellter physiologischer Aktivität. Beispielsweise kann der funktionale Bilddatensatz mittels einer PET-Bildgebungsmodalität erfasst worden sein. Ferner kann der funktionale Bilddatensatz beispielsweise Daten beinhalten, die das Gehirn und den Schädel des Abbildungsobjekts darstellen. Wenn die PET-Bildgebungsmodalität beispielsweise den Verbrauch von Glucose in dem Gehirn beinhaltet, sind die Abschnitte des Gehirns, die Glucose verbrauchen, getrennt in dem funktionalen Bilddatensatz von Gebieten unterscheidbar, in denen kein Glucoseverbrauch vorliegt. In einer Ausführungsform haben Bereiche, in welchen ein Glucoseverbrauch auftritt (z. B. in dem Gehirn) höhere Signalwerte als Bereiche ohne Glucoseverbrauch (z. B. in dem Schädel). In einem derartigen Falle kann eine Segmentation implementiert werden, um Glucose erzeugende Bereiche oder Gebiete von keine Glucose erzeugenden Bereichen zu segmentieren.
  • Jede geeignete Art von Segmentation kann implementiert werden. Beispielsweise kann die Segmentation eine Schwellenwertentscheidung auf der Basis von einem oder mehreren Schwellenwerten im Vergleich zu den Signalwerten des funktionalen Bilddatensatzes beinhalten, wobei einer oder mehrere Schwellenwerte automatisch von einem Computer gewählt werden und/oder von einem Benutzer gewählt werden. In einem Fall kann ein Computer oder Prozessor automatisch einen für die Schwellenwertentscheidung zu verwendenden Anfangsschwellenwert wählen, und ein Benutzer kann später einen weiteren Schwellenwert zur ”Feinabstimmung” der Schwellenwertsegmentation wählen. Es wird auch in Betracht gezogen, dass der eine oder die mehreren Schwellenwerte ausschließlich durch den Computer/Prozessor oder den Benutzer bestimmt werden. Ein Computer, wie z. B. ein Computersystem 192 von 2, kann zur Ausführung der Technik 100 von 1 genutzt werden. Es wird jedoch in Betracht gezogen, dass ein weiterer Computer oder Prozessor zur Durchführung von Ausführungsformen der Erfindung genutzt werden kann. Der Computer oder Prozessor kann mit einer oder mit mehreren Bildgebungsmodalitäten (z. B. einer morphologischen Bildgebungsmodalität oder einer funktionalen Bildgebungsmodalität) verbunden sein, oder der Computer oder Prozessor kann eine eigenständige Einheit sein, die Bilddaten über Eingänge empfängt.
  • Gemäß nochmaligem Bezug auf 1 können andere Segmentationstechniken, wie z. B. Erosion, Dilation und/oder Inselentfernung anstelle der Implementation einer Schwellenwertsegmentation implementiert werden. Es wird ferner in Betracht gezogen, dass eine Kombination dieser Segmentationstechniken implementiert werden kann.
  • Da der funktionale Bilddatensatz mit den ersten anatomischen Bilddatensätzen zur Deckung gebracht wird, ermöglicht die Technik 100 einen visuellen interaktiven Segmentationsprozess. D. h., einem Benutzer können miteinander verschmolzene Mehrebenenansichten mit neuem Format (z. B. eine Ansicht des funktionalen Bildes über dem ersten anatomischen Bild) dargestellt werden und die Manipulation des funktionalen Bildes ermöglicht werden, wenn irgendeine ”Feinabstimmung” erforderlich ist, bis das funktionale Bild visuell mit dem ersten anatomischen Bild zur Deckung gebracht ist. Dem Benutzer kann dann auch eine Manipulation des Segmentationsprozesses ermöglicht werden, um ihn bei der Isolation der speziellen physiologischen Aktivität zu unterstützen. Ein Algorithmus verbundener Komponenten kann dann durch den Computer implementiert werden, um belanglose Gebiete zu entfernen, die nicht mit dem interessierenden Gebiet oder Bereich verbunden sind.
  • Nach der Segmentation geht die Prozesssteuerung zum Block 110 über, wo eine Maske, wie z. B. eine binäre Maske aus dem segmentierten funktionalen Bilddatensatz erzeugt wird. D. h., beispielsweise, dass einigen in dem segmentierten funktionalen Bilddatensatz dargestellten Gebieten Werte von Null zugewiesen werden können und anderen Gebieten Werte von Eins zugewiesen werden können. Demzufolge wird eine Einsen und Nullen aufweisende Maske durch Segmentation erzeugt. Da die Maske aus dem funktionalen Bilddatensatz erzeugt wird, welcher mit dem ersten anatomischen Bilddatensatz zur Deckung gebracht ist, ist die Maske ebenfalls mit dem ersten anatomischen Bilddatensatz zur Deckung gebracht.
  • In einem Beispiel, in welchem der funktionale Bilddatensatz mittels einer PET-Bildgebungsmodalität erfasst worden ist, die einen Glucoseverbrauch anzeigt, kann den Glucose verbrauchenden Bereichen (d. h., den Bereichen physiologischer Aktivität) die in dem segmentierten funktionalen Datensatz dargestellt werden, ein Wert von Eins zugewiesen werden, während den nicht Glucose verbrauchenden Bereichen, die in dem funktionalen Bilddatensatz dargestellt werden, ein Wert von Null zugewiesen werden kann. Es wird in Betracht gezogen, dass stattdessen diesen Gebieten andere Werte zugewiesen werden können. Unabhängig davon wird der segmentierte funktionale Bilddatensatz in eine Abbildungsmaske umgewandelt. Es wird in Betracht gezogen, dass die Segmentation und Maskenerzeugung mittels eines kombinierten Prozesses statt eines Prozesses erledigt werden könnte, der zuerst eine Segmentation enthält und dann eine Maske daraus erzeugt.
  • Nach Erstellen oder Erzeugen der Abbildungsmaske geht die Prozesssteuerung zum Block 112 über, wo ein zweiter anatomischer Bilddatensatz durch Anwenden der Abbildungsmaske auf den ersten anatomischen Bilddatensatz (der erste anatomische Bilddatensatz, der mit der Abbildungsmaske zur Deckung gebracht ist) so erzeugt wird, dass ein Gebiet des Abbildungsobjekts in dem ersten anatomischen Bilddatensatz von Bereichen außerhalb des Gebietes isoliert werden kann. Beispielsweise kann, wenn ein Bereich im Kopf eines Patienten mittels einer MR-Bildgebungsmodalität (d. h., einer morphologischen Bildgebungsmodalität) und auch mittels einer PET-Bildgebungsmodalität (d. h., einer funktionalen Bildgebungsmodalität) abgebildet würde, eine mit dem MR-Bilddatensatz zur Deckung gebrachte Maske verwendet werden, um beispielsweise das Gehirn von dem Schädel des Patienten zu isolieren. Mit anderen Worten, es kann in dem vorstehenden Beispiel, in welchem eine PET-Bildgebungsmodalität, die einen Glucoseverbrauch darstellt, zum Erzeugen des funktionalen Bilddatensatzes verwendet wurde, ein Computer oder Prozessor einen zweiten anatomischen Bilddatensatz erzeugen, der Daten aus dem ersten anatomischen Datensatz enthält, die mit den in der Abbildungsmaske dargestellten Glucose verbrauchenden Bereichen korrelieren. Ferner kann der Computer oder Prozessor bewirken, dass der zweite anatomische Datensatz im Wesentlichen frei von Daten aus dem ersten anatomischen Bilddatensatz ist, die mit den in der Abbildungsmaske dargestellten keine Glucose verbrauchenden Bereichen korrelieren. Demzufolge kann durch Verwenden der Maske, die mit dem ersten anatomischen Datensatz zur Deckung gebracht worden ist, ein zweiter anatomischer Bilddatensatz, der ein isoliertes Gehirngebiet des Patienten darstellt, beispielsweise aus dem ersten anatomischen Datensatz erzeugt werden.
  • Es wird auch in Betracht gezogen, dass statt der Isolierung eines Gehirngebietes wie in dem vorstehenden Beispiel die mit dem ersten anatomischen Datensatz zur Deckung gebrachte Abbildungsmaske auch zum Isolieren des Schädelgebietes des Patienten verwendet werden kann. In einem derartigen Falle erzeugt ein Computer oder Prozessor einen zweiten anatomischen Bilddatensatz aus dem ersten anatomischen Bilddatensatz, der im Wesentlichen frei von Daten aus dem ersten anatomischen Bilddatensatz ist, der mit den in der Abbildungsmaske dargestellten Glucose verbrauchenden Bereichen korreliert. Somit kann ein Bild des isolierten Schädelgebietes aus dem zweiten anatomischen Bilddatensatz auf der Basis der Abbildungsmaske konstruiert werden.
  • Die vorstehend beschriebenen Beispiele veranschaulichen Ausführungsformen der Erfindung. Jedoch werden auch weitere Ausführungsformen in Betracht gezogen. Beispielsweise können Ausführungsformen der Erfindung implementiert werden, um andere Gebiete des Patienten als das Gehirn oder den Schädel zu isolieren, wie z. B. das Herz oder die Leber. Ferner ermöglichen Ausführungsformen der Erfindung die Erzeugung von Masken aus anderen funktionalen Bilddatensätzen als PET-Bilddatensätzen. Beispielsweise ermöglichen Ausführungsformen der Erfindung die Erzeugung von Bildern isolierter Bereiche aus anderen anatomischen Bilddatensätzen als MR-Bilddatensätzen.
  • In einer Ausführungsform geht nach Isolation des Gebietes oder Bereichs in dem Abbildungsobjekt die Prozesssteuerung zum (gestrichelt dargestellten) Block 113 über, wo der zweite anatomische Bilddatensatz segmentiert wird. Es wird in Betracht gezogen, dass diese zusätzliche Segmentierung implementiert werden kann, um das Gebiet oder den Bereich näher zu definieren. Beispielsweise können Dilations- und/oder Erosionstechniken angewendet werden, um das Gebiet weiter zu definieren. Demzufolge können belanglose Abschnitte des Gebietes entfernt werden oder zusätzlich zu oder alternativ dazu Abschnitte dem Gebiet hinzugefügt werden. In jedem Falle kann ein robusterer zweiter anatomischer Datensatz oder eine Abbildung durch zusätzliche Segmentation erzeugt werden.
  • Zusätzlich zu oder anstelle der Schwellenwertentscheidungs-, Erosions- und Dilations-Segmentationstechniken, die vorstehend unter Bezugnahme auf die Blöcke 108 und 113 diskutiert wurden, können weitere Segmentationstechniken bei den Blöcken 108 und 113 implementiert werden. Beispielsweise können weitere morphologische Operatoren, auf Bereichsausweitung, Gruppenbildung, Histogramm-basierender Kantendetektion, Pegeleinstellung, Graphpartitionierung, Wasserscheiden-Transformation, Modellen, Mehrfachmaßstäben und/oder neuronale Netzen basierende Segmentierungstechniken implementiert werden. Zusätzlich können noch weitere nicht diskutierte Segmentierungstechniken implementiert werden.
  • Nach Isolation des Gebietes oder Bereichs in dem Abbildungsobjekt geht unabhängig, ob der zweite Datensatz segmentiert wurde oder nicht, die Prozesssteuerung zum Block 114 über, wo das isolierte Gebiet oder der Bereich, oder ein in dem zweiten anatomischen Datensatz dargestellter Abschnitt bzw. Abschnitte quantifiziert oder in der Größe bestimmt werden. Beispielsweise können, wenn ein isoliertes Gehirngebiet in einem zweiten MR-Bilddatensatz (d. h., in einem zweiten anatomischen Datensatz) dargestellt wird, eine Länge, Höhe oder ein Bereich des isolierten Gehirns bestimmt werden. Wenn der zweite MR-Bilddatensatz ein dreidimensionaler MR-Bilddatensatz ist, kann auch das Volumen eines Gehirns bestimmt werden. Ferner kann aufgrund der oft in MR-Datensatz dargestellten Details der Prozentsatz in dem Datensatz dargestellter weißer und/oder grauer Zellen bestimmt oder quantifiziert werden. Ferner sind weitere Arten von Größenerfassung vorstellbar wie z. B. eine Messung der Dicke des cerebralen Cortex (graue Zellen) zur Nutzung bei der Untersuchung von Demenz in Patienten. Eine weitere Segmentation des sich ergebenden zweiten anatomischen Bilddatensatzes kann für bestimmte Arten von Größenbestimmungen erforderlich sein.
  • Aufgrund der Fähigkeit, Gebiete oder Bereiche in einem Abbildungsobjekt zu isolieren, ermöglicht die Technik 100 eine genauere Quantifizierung dieser Gebiete oder Bereiche. Beispielsweise kann ein anatomischer Bilddatensatz, der einen Abschnitt des Kopfes eines Patienten darstellt, Daten enthalten, die Abschnitte des Schädels und des Gehirns des Patienten enthalten. Jedoch kann es in einem derartigen anatomischen Datensatz schwierig sein, eine Grenze zwischen dem Schädel und dem Gehirn zu ziehen. Demzufolge kann es beispielsweise schwierig sein, die in dem vollständigen anatomischen Bilddatensatz dargestellten Schädelabschnitte oder Gehirnabschnitte zu quantifizieren. Segmentierungstechniken können an dem anatomischen Datensatz in einem Versuch implementiert werden, die gewünschten anatomischen Gebiete zu isolieren, aber es kann rechnerisch oder algorithmisch schwierig sein, eine derartige Segmentation an den anatomischen Daten selbst durchzuführen. Die Technik 100 ermöglicht jedoch die Durchführung einer Segmentation an einem funktionalen Bilddatensatz, was rechnerisch oder algorithmisch weniger schwierig als die Durchführung desselben Prozesses an anderen Datensätzen, wie z. B. an einem anatomischen Bilddatensatz, und für den zur Segmentierung des anatomischen Bilddatensatzes verwendeten segmentierten funktionalen Bilddatensatz sein kann.
  • Somit kann gemäß der Technik 100 eine Maske aus dem segmentierten funktionalen Bilddatensatz erzeugt werden. Da wie in der Technik 100 dargestellt, die Maske mit dem ersten anatomischen Bilddatensatz, wie z. B. einem anatomischen MR-Bilddatensatz, zur Deckung gebracht ist, können ein gewünschtes isoliertes anatomisches Gebiet oder ein Bereich des ersten anatomischen Bilddatensatzes in einem aus einer Kombination der Maske und des ersten anatomischen Bilddatensatzes erzeugten zweiten anatomischen Datensatz dargestellt werden. Mit anderen Worten, wenn der erste anatomische Bilddatensatz Daten des Gehirns und Schädels eines Patienten enthält, kann ein zweiter MR-Datensatz erzeugt werden, der das Gebiet entweder des isolierten Schädels oder des isolierten Gehirns des Patienten darstellt.
  • Wie vorstehend diskutiert, beinhalten Ausführungsformen der Erfindung einen Zugriff auf Bilddatensätze, die mittels einer Vielfalt von Bildgebungsmodalitäten erfasst werden können. Eine exemplarische Bildgebungsvorrichtung oder -modalität ist in 2 dargestellt, in welcher die Hauptkomponenten eines Magnetresonanzbildgebungs-(MRI)-Systems 180 zum Erfassen eines anatomischen Bilddatensatzes dargestellt sind. Der Betrieb des Systems wird von einer Bedienerkonsole 182 aus gesteuert, welche eine Eingabevorrichtung 184, ein Steuerfeld 186 und einen Anzeigebildschirm 188 enthält. Die Konsole 182 kommuniziert über eine Verbindung 190 mit einem getrennten Computersystem 192, das einem Bediener ermöglicht, die Erzeugung und Darstellung von Bildern auf dem Anzeigebildschirm 188 zu steuern. Das Computersystem 192 enthält eine Anzahl von Modulen, welche jeweils miteinander über eine Rückseitenplatine 194 kommunizieren. Diese umfassen ein Bildverarbeitungsmodul 196, ein CPU-Modul 198 und ein Speichermodul 200, das im Fachgebiet als Frame-Puffer zum Speichern von Bilddaten-Arrays bekannt ist. Das Computersystem 192 kommuniziert mit einer getrennten Systemsteuerung 202 über eine sehr schnelle serielle Verbindung 204. Die Eingabevorrichtung 184 kann eine Maus, ein Joystick, eine Tastatur, ein Track Ball, ein berührungsempfindlicher Bildschirm, eine Lichtwand, eine Sprachsteuerung oder irgendeine ähnliche oder äquivalente Eingabevorrichtung umfassen und kann für eine interaktive Geometrievorschrift genutzt werden.
  • Die Systemsteuerung 200 enthält einen Satz von miteinander über eine Rückseitenplatine 206 verbundenen Modulen. Diese umfassen ein CPU-Modul 208 und ein Impulsgeneratormodul 210, welches mit der Bedienerkonsole 182 über eine serielle Verbindung 212 verbunden ist. Über diese Verbindung 212 empfängt die Systemsteuerung 202 Befehle von dem Bediener, um die auszuführende Scansequenz anzuzeigen. Das Impulsgeneratormodul 210 betreibt die Systemkomponenten so, dass sie die gewünschte Scansequenz ausführen und erzeugt Daten, welche den Zeittakt, die Stärke und Form der erzeugten HF-Impulse und den Zeittakt und die Länge des Datenerfassungsfensters anzeigen. Das Impulsgeneratormodul 210 ist mit einem Satz von Gradientenverstärkern 214 verbunden, um den Zeittakt und die Form der Gradientenpulse anzuzeigen, die während des Scans erzeugt werden. Das Impulsgeneratormodul 210 kann auch Patientendaten aus einer Physiologieerfassungs-Steuerung 216 empfangen, die Signale aus einer Anzahl unterschiedlicher mit dem Patienten verbundener Sensoren wie z. B. EKG-Signale aus an dem Patienten angebrachten Elektroden empfängt. Und letztlich ist das Impulsgeneratormodul 210 mit einer Scanraum-Schnittstellenschaltung 218 verbunden, welche verschiedene Signale aus verschiedenen Sensoren in Verbindung mit dem Zustand des Patienten und dem Magnetsystem empfängt. Über diese Scanraum-Schnittstellenschaltung 218 empfängt ein Patientenpositionierungssystem 177 auch Befehle zum Bewegen des Patienten in die für den Scan gewünschte Position.
  • Die von dem Impulsgeneratormodul 210 erzeugten Gradientenwellenformen werden an das Gradientenverstärkersystem 214 mit Gx-, Gy- und Gz-Verstärkern angelegt. Jeder Gradientenverstärker erregt eine entsprechende physikalische Gradientenspule in einer insgesamt mit 220 bezeichneten Gradientenspulenbaugruppe, um für die räumliche Codierung erfasster Signale verwendete Magnetfeldgradienten zu erzeugen. Die Gradientenspulenbaugruppe 220 bildet einen Teil der Magnetbaugruppe 222, welche einen Polarisierungsmagneten 224 und eine Ganzkörper-HF-Spule 226 beinhaltet. Ein Sender/Empfänger-Modul 228 in der Systemsteuerung 202 erzeugt Impulse, welche von einem HF-Verstärker 230 verstärkt und mittels eines Sende/Empfangs-Schalters 232 an die HF-Spule 226 gekoppelt werden. Die resultierenden Signale, die von den angeregten Kernen in dem Patienten emittiert werden, können durch dieselbe HF-Spule 226 erfasst und über den Sende/Empfangs-Schalter 232 an einen Vorverstärker 234 gekoppelt werden. Die verstärkten MR-Signale werden in dem Empfängerabschnitt des Senders/Empfängers 228 demoduliert, gefiltert und digitalisiert. Der Sende/Empfangs-Schalter 232 wird durch ein Signal aus dem Impulsgeneratormodul 210 gesteuert, um den HF-Verstärker 230 elektrisch mit der Spule 226 während des Sendemodus zu verbinden und um den Vorverstärker 234 mit der Spule 226 während des Empfangsmodus zu verbinden. Der Sende/Empfangs-Schalter 232 kann auch die Verwendung einer getrennten HF-Spule (z. B. einer Oberflächenspule) entweder in dem Sende- oder in dem Empfangsmodus ermöglichen.
  • Die von der HF-Spule 226 aufgenommenen MR-Signale werden durch das Sender/Empfängermodul 228 digitalisiert und an ein Speichermodul 236 in der Systemsteuerung 202 übertragen. Ein Scan ist vollständig, wenn eine Gruppe von k-Raum-Rohdaten in dem Speichermodul 236 erfasst worden ist. Diese k-Raum-Rohdaten werden für jedes zu rekonstruierende Bild in getrennten k-Raum-Datengruppen neu angeordnet und jedes von diesen wird in einen Array-Prozessor 238 eingegeben, welcher so arbeitet, dass er die Daten in einem Array von Bilddaten Fourier-transformiert. Diese Bilddaten werden durch die serielle Verbindung 204 zu dem Computersystem 192 transportiert, wo sie im Speicher gespeichert werden. Als Reaktion auf von der Bedienerkonsole 182 empfangene Befehle könne diese Bilddaten in einem Langzeitspeicher archiviert werden oder können von dem Bildprozessor 196 weiterverarbeitet und an die Bedienerkonsole 182 transportiert und auf der Anzeige 188 dargestellt werden.
  • Zusätzlich zum Erzeugen eines anatomischen Abbildungsdatensatzes kann das MRI-System 180 auch zur Ausführung der Technik 100 programmiert sein. D. h., das Computersystem 192 kann dafür konfiguriert oder programmiert sein, auf einen mittels eines MRI-Systems 180 erfassten anatomischen Bilddatensatz zusammen mit einem mittels eines MRI-Systems 180 (wenn das MRI-System 180 auch als ein fMRI genutzt wird) oder mittels einer anderen funktionalen Abbildungsmodalität erfassten funktionalen Bilddatensatz zuzugreifen und diese Bilddatensätze für die Durchführung der Schritte der Technik 100 zu nutzen.
  • In 3 ist ein exemplarisches CT-System 250, das gemäß Ausführungsformen der Erfindung genutzt werden kann, dargestellt. Das CT-System 250 kann als eine morphologische oder als eine funktionale Bildgebungsmodalität genutzt werden, die anatomische Datensätze bzw. funktionale Datensätze erzeugt. Das CT-Bildgebungssystern 250 enthält ein für einen CT-Scanner der ”dritten Generation” repräsentatives Portal 252. Das Portal 252 besitzt eine Röntgenquelle 254, die ein Bündel von Röntgenstrahlen auf eine Detektorbaugruppe oder Kollimator 256 auf der gegenüberliegenden Seite des Portals 252 projiziert. Die Detektorbaugruppe 256 wird durch mehrere (nicht dargestellte) Detektoren und Datenerfassungssysteme (DAS) 258 gebildet. Die mehreren Detektoren erfassen die projizierten Röntgenstrahlen, die einen Patienten 260 passieren, und das DAS 258 wandelt die Daten in digitale Signale zur anschließenden Verarbeitung um. Jeder Detektor der Detektorbaugruppe 256 erzeugt ein analoges elektrisches Signal, das die Intensität eines auftreffenden Röntgenstrahlbündels und somit des abgeschwächten Strahlbündels bei dessen Passieren durch den Patienten 260 darstellt. Während eines Scans zum Erfassen von Röntgenprojektionsdaten rotieren das Portal 252 und die darauf montierten Komponenten um einen Rotationsmittelpunkt.
  • Eine (nicht dargestellte) Bildrekonstruktionseinrichtung empfängt die abgetasteten und digitalisierten Röntgendaten aus dem DAS und führt eine Hochgeschwindigkeitsrekonstruktion durch. Das rekonstruierte Bild wird über eine serielle Verbindung 262 als ein Eingangssignal an einen Computer 264 angelegt, welcher das Bild in einer Massenspeichervorrichtung 266 speichert.
  • Der Computer 260 empfängt auch Befehle und Scanparameter von einem Bediener. Eine zugeordnete Anzeigeeinrichtung 268 ermöglicht dem Bediener, das rekonstruierte Bild und weitere Daten aus dem Computer 264 zu betrachten. Zusätzlich zum Erzeugen eines anatomischen und/oder eines funktionalen Abbildungsdatensatzes kann das CT-System 250 auch für die Durchführung der Technik 100 programmiert sein. D. h., der Computer 264 kann beispielsweise dafür konfiguriert oder programmiert sein, auf einen mittels des MRI-Systems 180 von 2 erfassten anatomischen Bilddatensatz oder einen mittels des CT-Systems 250 von 3 zusammen mit einem mittels eines MRI-Systems 180 von 2 (wenn das MRI-System 180 auch als ein fMRI genutzt wird), eines CT-Systems von 3, oder mittels einer anderen funktionalen Abbildungsmodalität, wie z. B. eines PET-Systems der nachstehenden 4 erfassten funktionalen Bilddatensatz zuzugreifen und diese Bilddatensätze für die Durchführung der Schritte der Technik 100 zu nutzen.
  • In 4 ist nun ein exemplarisches PET-System 270, das gemäß Ausführungsformen der Erfindung genutzt werden kann, dargestellt. Das PET-System 270 kann als eine funktionale Bildgebungsmodalität genutzt werden, die funktionale Datensätze erzeugt. Der PET-Scanner 270 enthält ein Portal 272, welcher eine Detektorringbaugruppe 274 um eine zentrale Öffnung oder Bohrung 276 lagert. Die Detektorringbaugruppe 274 ist kreisförmig und besteht aus mehreren (nicht dargestellten) Detektorringen, die in Abstand entlang einer zentralen Achse 278 angeordnet sind, um eine zylindrische Detektorringbaugruppe auszubilden. Ein Patiententisch 288 ist vor dem Portal 272 positioniert und zu der Mittenachse 278 der Detektorringbaugruppe 274 ausgerichtet. Eine (nicht dargestellte) Patiententischsteuerung bewegt das Tischbett 282 in Reaktion auf von einem Computer oder einer Bedienerarbeitsstation 284 über eine serielle Kommunikationsverbindung 286 empfangene Befehle in die Bohrung 276. Die Arbeitsstation 284 enthält ein Computerlesbares Speichermedium 288, einen Prozessor 290 und eine Anzeigeeinrichtung 292 und ein Benutzer kann das PET-System 270 über die Arbeitsstation 284 steuern.
  • Zusätzlich zum Erzeugen eines funktionalen Abbildungsdatensatzes kann das PET-System 270 auch zur Ausführung der Technik 100 programmiert sein. D. h., die Arbeitsstation 284 kann dafür konfiguriert oder programmiert sein, auf einen mittels eines PET-Systems 270 erfassten funktionalen Bilddatensatz und einen mit einem mittels eines MRI-Systems 180 von 2 oder mittels eines CT-Systems 250 von 3 erfassten anatomischen Bilddatensatz zuzugreifen und diese Bilddatensätze für die Durchführung der Schritte der Technik 100 zu nutzen.
  • Die Technik 100 von 1 kann mittels anatomischer Bilddatensätze implementiert werden, die mittels anderer morphologischer Bildgebungsmodalitäten als MR- und CT-Bildgebungsmodalitäten erfasst wurden. Ebenso kann die Technik 100 kann mittels funktionaler Bilddatensätze implementiert werden, die mittels anderer funktionaler Bildgebungsmodalitäten als PET-, MR- oder CT-Bildgebungsmodalitäten erfasst wurden.
  • Ein technischer Beitrag für das offengelegte Verfahren, die Vorrichtung und das System besteht darin, dass sie ein Computer-implementiertes Verfahren, eine Vorrichtung und ein System zur Isolation eines Gebietes in einem Bild bereitstellen.
  • Gemäß einer Ausführungsform besitzt ein Computerlesbares Speichermedium ein darauf gespeichertes Computerprogramm. Das Computerprogramm enthält Instruktionen, welche, wenn sie von einem Computer ausgeführt werden, den Computer veranlassen, auf einen ersten anatomischen Bilddatensatz eines mittels einer morphologischen Bildgebungsmodalität erfassten Abbildungsobjekts zuzugreifen, auf einen funktionalen Bilddatensatz des mittels einer funktionalen Abbildungsmodalität erfassten Abbildungsobjektes, das wenigstens einen biologischen Prozess abbildet, zuzugreifen, den ersten anatomischen Bilddatensatz mit dem funktionalen Bilddatensatz zur Deckung zu bringen, den funktionalen Bilddatensatz auf der Basis eines Gebietes physiologischer Aktivität des funktionalen Bilddatensatzes zu segmentieren, eine binäre Maske auf der Basis des segmentierten funktionalen Bilddatensatzes zu definieren, die binäre Datenmaske auf den ersten anatomischen Bilddatensatz anzuwenden, um einen zweiten anatomischen Bilddatensatz zu konstruieren, und ein Bild auf der Basis des zweiten anatomischen Datensatzes zu konstruieren. Der zweite anatomische Bilddatensatz ist im Wesentlichen frei von Bilddaten des ersten anatomischen Bilddatensatzes, die mit einem Bereich außerhalb des Gebietes physiologischer Aktivität korrelieren.
  • Gemäß einer weiteren Ausführungsform beinhaltet ein Bildrekonstruktionsverfahren die Gewinnung eines von dem Objekt mittels einer morphologischen Bildgebungsmodalität erfassten ersten Datensatzes von Abbildungsdaten eines anatomischen Gebietes eines Objekts und die Gewinnung eines von dem Objekt mittels einer funktionalen Bildgebungsmodalität erfassten zweiten Datensatzes. Der zweite Datensatz enthält Abbildungsdaten wenigstens eines biologischen Prozesses des Objekts. Das Verfahren beinhaltet auch das zur Deckung bringen des ersten Datensatzes mit dem zweiten Datensatz, die Segmentierung des zweiten Datensatzes, um einen dritten Datensatz mit einem Maskierungsdatensatz zu erzeugen, der mit dem ersten Datensatz zur Deckung gebracht ist, die Erzeugung eines vierten Datensatzes aus dem ersten Datensatz auf der Basis des Maskierungsdatensatzes, die Konstruktion eines Bildes aus dem vierten Datensatz und die Quantifizierung eines Gebietes in dem Bild. Der vierte Datensatz ist ein Untersatz des ersten Datensatzes.
  • Gemäß noch einer weiteren Ausführungsform beinhaltet ein Verfahren das zur Deckung bringen eines von einem Abbildungsobjekt mittels einer morphologischen Abbildungsmodalität erfassten ersten Datensatzes mit einem von dem Abbildungsobjekt mittels einer funktionalen Abbildungsmodalität erfassten zweiten Datensatzes und eine Segmentierung des zweiten Datensatzes, um eine mit dem ersten Datensatz zur Deckung gebrachten Abbildungsmaske zu erzeugen. Die Abbildungsmaske enthält einen physiologischen Aktivitätsdaten in dem zweiten Datensatz entsprechenden Bereich. Das Verfahren beinhaltet auch das Erzeugen eines dritten Datensatzes auf der Basis der Abbildungsmaske, die Quantifizierung eines Gebietes des Abbildungsobjektes auf der Basis des dritten Datensatzes, um einen quantitativen Wert des Gebietes zu bestimmen und den quantitativen Wert einem Benutzer anzuzeigen. Der dritte Datensatz enthält Daten aus dem ersten Datensatz, ist jedoch im Wesentlichen frei von Daten aus dem ersten Datensatz, die mit Daten außerhalb des Bereichs korrelieren.
  • Die vorliegende Erfindung wurde in Form ihrer bevorzugten Ausführungsformen beschrieben und es ist zu erkennen, dass Äquivalente, Alternativen und Modifikationen neben den ausdrücklich festgestellten innerhalb des Schutzumfangs der beigefügten Ansprüche möglich sind.
  • Ein System, ein Verfahren und eine Vorrichtung enthalten ein Computer-lesbares Speichermedium mit einem darauf gespeicherten Computerprogramm, das Instruktionen enthält, die einen Computer veranlassen, auf einen ersten anatomischen Bilddatensatz eines mittels einer morphologischen Bildgebungsmodalität erfassten Abbildungsobjekts zuzugreifen 102, auf einen funktionalen Bilddatensatz des mittels einer funktionalen Abbildungsmodalität erfassten Abbildungsobjektes, zuzugreifen 104, den ersten anatomischen Bilddatensatz mit dem funktionalen Bilddatensatz zur Deckung zu bringen 106, den funktionalen Bilddatensatz auf der Basis des funktionalen Bilddatensatzes zu segmentieren 108, eine binäre Maske auf der Basis des segmentierten funktionalen Bilddatensatzes zu definieren 110, die binäre Datenmaske auf den ersten anatomischen Bilddatensatz anzuwenden 112, um einen zweiten anatomischen Bilddatensatz und darauf basierendes ein Bild zu konstruieren. Der zweite anatomische Bilddatensatz ist im Wesentlichen frei von Bilddaten des ersten anatomischen Bilddatensatzes, die mit einem Bereich außerhalb des Gebietes physiologischer Aktivität korrelieren.
  • Bezugszeichenliste
  • 100
    Technik
    102
    Zugreifen auf einen mittels einer morphologischen Bildgebungsmodalität erfassten ersten anatomischen Bilddatensatzes
    104
    Zugreifen auf einen mittels einer funktionalen Bildgebungsmodalität erfassten zweiten anatomischen Bilddatensatzes
    106
    Zur Deckung bringen des ersten anatomischen Bilddatensatzes mit dem funktionalen Bilddatensatz
    108
    Segmentieren des funktionalen Bilddatensatzes
    110
    Erzeugen einer Maske aus dem segmentierten funktionalen Bilddatensatz
    112
    Erzeugen eines zweiten anatomischen Bilddatensatzes aus der Maske und dem ersten anatomischen Bilddatensatz
    113
    Segmentieren des zweiten anatomischen Bilddatensatzes
    114
    Quantifizieren eines in dem zweiten anatomischen Bilddatensatz dargestellten Gebietes
    177
    Patientenpositionierungssystem
    180
    Magnetresonanzbildgebungs-(MRI)-System
    182
    Bedienerkonsole
    184
    Eingabevorrichtung
    186
    Steuerfeld
    188
    Anzeigebildschirm
    190
    Verbindung
    192
    Computersystem
    194
    Rückseitenplatine
    196
    Bildprozessormodul
    198
    CPU-Modul
    200
    Speichermodul
    202
    getrennte Systemsteuerung
    204
    sehr schnelle serielle Verbindung
    206
    Rückseitenplatine
    208
    CPU-Modul
    210
    Impulsgeneratormodul
    212
    serielle Verbindung
    214
    Satz von Gradientenverstärkern
    216
    Physiologie-Erfassungssteuerung
    218
    Scanraum-Schnittstellenschaltung
    220
    Gradientenspulenbaugruppe
    222
    Magnetbaugruppe
    224
    Polarisierungsmagnet
    226
    Ganzkörper-HF-Spule
    228
    Sender/Empfänger-Modul
    230
    HF-Verstärker
    232
    Sende/Empfangs-Schalter
    234
    Vorverstärker
    236
    Speichermodul
    238
    Array-Prozessor
    250
    Exemplarisches CT-System
    252
    Portal
    254
    Röntgenquelle
    256
    Detektorbaugruppe oder Kollimator
    258
    Datenerfassungssystem (DAS)
    260
    Patient
    262
    serielle Verbindung
    264
    Computer
    266
    Massenspeichervorrichtung
    268
    zugeordnete Anzeigeeinrichtung
    270
    PET-System
    272
    Portal
    274
    Detektorringbaugruppe
    276
    zentrale Öffnung oder Bohrung
    278
    Mittenachse
    280
    Patiententisch
    282
    Tischbett
    284
    Computer oder Bedienerarbeitsstation
    286
    serielle Kommunikationsverbindung
    288
    Computer-lesbares Speichermedium
    290
    Prozessor
    292
    Anzeigeeinrichtung

Claims (10)

  1. Computer-lesbares Speichermedium (200, 236, 266, 288) mit darauf gespeicherten Computerprogramm, das Instruktionen enthält, die, wenn sie von einem Computer (192, 264, 284) ausgeführt werden, den Computer (192, 264, 284) dazu veranlassen: auf einen ersten anatomischen Bilddatensatz eines mittels einer morphologischen Bildgebungsmodalität erfassten Abbildungsobjekts (260) zuzugreifen (102); auf einen funktionalen Bilddatensatz des mittels einer funktionalen Abbildungsmodalität erfassten Abbildungsobjektes (260) zuzugreifen (104), das wenigstens einen biologischen Prozess abbildet; den ersten anatomischen Bilddatensatz mit dem funktionalen Bilddatensatz zur Deckung zu bringen (106); den funktionalen Bilddatensatz auf der Basis eines Gebietes physiologischer Aktivität des funktionalen Bilddatensatzes zu segmentieren (108); eine binäre Maske auf der Basis des segmentierten funktionalen Bilddatensatzes zu definieren (110); die binäre Datenmaske auf den ersten anatomischen Bilddatensatz anzuwenden (112), um einen zweiten anatomischen Bilddatensatz zu konstruieren, wobei der zweite anatomische Bilddatensatz im Wesentlichen frei von Bilddaten des ersten anatomischen Bilddatensatzes ist, die mit einem Bereich außerhalb des Gebietes physiologischer Aktivität korrelieren; und ein Bild auf der Basis des zweiten anatomischen Bilddatensatzes zukonstruieren.
  2. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 1, wobei die Instruktionen ferner den Computer (192, 264, 284) dazu veranlassen: das Gebiet des Abbildungsobjekts (260) auf der Basis des zweiten anatomischen Bilddatensatzes zu quantifizieren (114); und die Quantifizierung einem Benutzer anzuzeigen.
  3. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 2, wobei die Instruktionen, die den Computer (192, 264, 284) veranlassen, das Gebiet zu quantifizieren (114) ferner den Computer dazu veranlassen wenigstens eines von: einem Bereich des Gebietes zu bestimmen; und einem Volumen des Gebietes zu bestimmen.
  4. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 1, wobei die Instruktionen, die den Computer (192, 264, 284) veranlassen, den funktionalen Bilddatensatz zu segmentieren (108), den Computer (192, 264, 284) veranlassen, eine Schwellenwertentscheidung an Daten des funktionalen Bilddatensatz vorzunehmen.
  5. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 4, wobei die Instruktionen ferner den Computer (192, 264, 284) veranlassen, einen Schwellenwert von einer Benutzereingabe zu empfangen, und wobei Instruktionen, die den Computer (192, 264, 284) veranlassen, die Schwellenwertentscheidung an Daten des funktionalen Bilddatensatzes auszuführen, den Computer (192, 264, 284) veranlassen, die Schwellenwertentscheidung auf der Basis des Schwellenwertes auszuführen.
  6. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 1, wobei die Instruktionen ferner den Computer (192, 264, 284) veranlassen, einen Satz morphologischer Operationen auf den zweiten anatomischen Bilddatensatz anzuwenden.
  7. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 1, wobei die morphologische Bildgebungsmodalität eine Magnetresonanz-(MR)-Bildgebungsmodalität (180) aufweist und die funktionale Bildgebungsmodalität eine Positronen-Emissions-Tomographie-(PET)-Bildgebungsmodalität (170) aufweist.
  8. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 1, wobei die morphologische Bildgebungsmodalität eine Magnetresonanz-(MR)-Bildgebungsmodalität (180) aufweist und die funktionale Bildgebungsmodalität eine Computertomographie-(CT)-Bildgebungsmodalität (250) aufweist.
  9. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 2, wobei die Instruktionen ferner den Computer (192, 264, 284) dazu veranlassen: den zweiten anatomischen Bilddatensatz vor der Quantifizierung des Gebietes zu segmentieren (114).
  10. Computer-lesbares Speichermedium (200, 236, 266, 288) nach Anspruch 1, wobei die Segmentierung (108) des funktionalen Bilddatensatzes eine Inselentfernungstechnik aufweist.
DE102010017432A 2009-06-18 2010-06-17 Vorrichtung und Verfahren zum Isolieren eines Gebietes in einem Bild Ceased DE102010017432A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/487,166 US8588486B2 (en) 2009-06-18 2009-06-18 Apparatus and method for isolating a region in an image
US12/487,166 2009-06-18

Publications (1)

Publication Number Publication Date
DE102010017432A1 true DE102010017432A1 (de) 2011-01-05

Family

ID=43299218

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010017432A Ceased DE102010017432A1 (de) 2009-06-18 2010-06-17 Vorrichtung und Verfahren zum Isolieren eines Gebietes in einem Bild

Country Status (3)

Country Link
US (1) US8588486B2 (de)
JP (1) JP5785694B2 (de)
DE (1) DE102010017432A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014207236A1 (de) * 2014-04-15 2015-10-15 Siemens Aktiengesellschaft Verfahren und Steuerungseinrichtung zum Erstellen von Magnetresonanzaufnahmen
US11686799B2 (en) 2016-09-28 2023-06-27 Siemens Healthcare Gmbh Method and apparatus for generation of combined magnetic resonance images

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103026382B (zh) * 2010-07-22 2016-08-24 皇家飞利浦电子股份有限公司 多个图像的融合
CZ303228B6 (cs) * 2011-03-23 2012-06-06 Tescan A.S. Zpusob analýzy materiálu fokusovaným elektronovým svazkem s využitím charakteristického rentgenového zárení a zpetne odražených elektronu a zarízení k jeho provádení
US8917268B2 (en) * 2011-11-11 2014-12-23 General Electric Company Systems and methods for performing image background selection
US9607392B2 (en) * 2011-12-05 2017-03-28 The Johns Hopkins University System and method of automatically detecting tissue abnormalities
US9204817B2 (en) * 2012-04-19 2015-12-08 General Electric Company Attenuation correction in positron emission tomography using magnetic resonance imaging
DE112014007064T5 (de) * 2014-10-17 2017-06-29 Synaptive Medical (Barbados) Inc. System und Verfahren für die Konnektivitätszuordnung
US10192129B2 (en) 2015-11-18 2019-01-29 Adobe Systems Incorporated Utilizing interactive deep learning to select objects in digital visual media
US11568627B2 (en) 2015-11-18 2023-01-31 Adobe Inc. Utilizing interactive deep learning to select objects in digital visual media
CA3036754A1 (en) 2016-10-27 2018-05-03 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (gui) applications
US11723579B2 (en) 2017-09-19 2023-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
KR101824660B1 (ko) * 2017-11-01 2018-02-01 권재근 금형 제조장치
KR101824659B1 (ko) * 2017-11-01 2018-02-01 권재근 금형 제조장치
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US11273283B2 (en) 2017-12-31 2022-03-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US11244195B2 (en) * 2018-05-01 2022-02-08 Adobe Inc. Iteratively applying neural networks to automatically identify pixels of salient objects portrayed in digital images
EP3583902B1 (de) 2018-06-20 2020-07-29 Siemens Healthcare GmbH Verfahren zum automatischen anpassen eines mittels eines röntgengeräts gewonnenen bilddatensatzes, computerprogramm, datenspeicher und röntgengerät
EP3849410A4 (de) 2018-09-14 2022-11-02 Neuroenhancement Lab, LLC System und verfahren zur verbesserung des schlafs
DK180231B1 (en) 2018-10-31 2020-08-28 Synaptic Aps Method of establishing a brain status indication parameter and system therefor
US11282208B2 (en) 2018-12-24 2022-03-22 Adobe Inc. Identifying target objects using scale-diverse segmentation neural networks
AU2020206584A1 (en) 2019-01-07 2021-06-17 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
CN109872328B (zh) * 2019-01-25 2021-05-07 腾讯科技(深圳)有限公司 一种脑部图像分割方法、装置和存储介质
JP2022530039A (ja) 2019-04-24 2022-06-27 プロジェニクス ファーマシューティカルズ, インコーポレイテッド 転移を検出するための骨スキャン画像の自動化された対話型の分析のためのシステムおよび方法
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11564621B2 (en) 2019-09-27 2023-01-31 Progenies Pharmacenticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11321844B2 (en) * 2020-04-23 2022-05-03 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11386988B2 (en) * 2020-04-23 2022-07-12 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11721428B2 (en) 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
US11335004B2 (en) 2020-08-07 2022-05-17 Adobe Inc. Generating refined segmentation masks based on uncertain pixels
US11676279B2 (en) 2020-12-18 2023-06-13 Adobe Inc. Utilizing a segmentation neural network to process initial object segmentations and object user indicators within a digital image to generate improved object segmentations
US11875510B2 (en) 2021-03-12 2024-01-16 Adobe Inc. Generating refined segmentations masks via meticulous object segmentation

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0947438A (ja) * 1995-08-07 1997-02-18 Hitachi Ltd 活性化領域同定法
WO2002064034A1 (en) * 2001-02-12 2002-08-22 David Roberts Method and apparatus for the non-invasive imaging of anatomic tissue structures
US20040092809A1 (en) * 2002-07-26 2004-05-13 Neurion Inc. Methods for measurement and analysis of brain activity
US7507968B2 (en) * 2003-06-17 2009-03-24 Ge Medical Systems Global Technology Company, Llc Systems and methods for correcting a positron emission tomography emission image
US8160314B2 (en) * 2004-06-18 2012-04-17 Siemens Aktiengesellschaft System and method for linking VOIs across timepoints for analysis of disease progression or response to therapy
US20080292194A1 (en) * 2005-04-27 2008-11-27 Mark Schmidt Method and System for Automatic Detection and Segmentation of Tumors and Associated Edema (Swelling) in Magnetic Resonance (Mri) Images
US7869860B2 (en) * 2005-11-14 2011-01-11 University Of Washington Method for enhancing the accuracy of PET/CT images
JP5127276B2 (ja) * 2006-05-26 2013-01-23 株式会社東芝 画像処理装置および磁気共鳴イメージング装置
JP5075399B2 (ja) * 2006-11-22 2012-11-21 株式会社東芝 医用画像表示装置及び医用画像診断装置
MX2009007880A (es) * 2007-01-30 2009-08-18 Ge Healthcare Ltd Herramientas para ayudar en el diagnostico de enfermedades neurodegenerativas.
ES2374686T3 (es) * 2007-05-14 2012-02-21 Historx, Inc. Separación en compartimentos por caracterización de píxel usando agrupamiento de datos de imágenes.
US8355021B2 (en) * 2007-05-17 2013-01-15 Siemens Aktiengesellschaft Fused volume rendering
US7991450B2 (en) * 2007-07-02 2011-08-02 General Electric Company Methods and systems for volume fusion in diagnostic imaging
US8320647B2 (en) * 2007-11-20 2012-11-27 Olea Medical Method and system for processing multiple series of biological images obtained from a patient
US20090136096A1 (en) 2007-11-23 2009-05-28 General Electric Company Systems, methods and apparatus for segmentation of data involving a hierarchical mesh
US8706188B2 (en) * 2008-06-04 2014-04-22 The Board Of Trustees Of The Leland Stanford Junior University Automatic segmentation of articular cartilage from MRI

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014207236A1 (de) * 2014-04-15 2015-10-15 Siemens Aktiengesellschaft Verfahren und Steuerungseinrichtung zum Erstellen von Magnetresonanzaufnahmen
US10024933B2 (en) 2014-04-15 2018-07-17 Siemens Aktiengesellschaft Method and control device for generating magnetic resonance images
US11686799B2 (en) 2016-09-28 2023-06-27 Siemens Healthcare Gmbh Method and apparatus for generation of combined magnetic resonance images

Also Published As

Publication number Publication date
JP5785694B2 (ja) 2015-09-30
US20100322488A1 (en) 2010-12-23
JP2011000439A (ja) 2011-01-06
US8588486B2 (en) 2013-11-19

Similar Documents

Publication Publication Date Title
DE102010017432A1 (de) Vorrichtung und Verfahren zum Isolieren eines Gebietes in einem Bild
DE10311319B4 (de) Verfahren, System und Computerprodukt zur Planung eines Herzinterventionsverfahrens
EP2449528B1 (de) Wissensbasierte segmentierung schwächungsrelevanter regionen des kopfes
DE102005039523B4 (de) System, Automatisiertes System und Verfahren zum automatischen Gewinnen eines digitalen Bildes eines Herzens
EP3185215A1 (de) Automatisierte ermittlung von konturen auf basis einer iterativen rekonstruktion
DE102011001292A1 (de) System und Verfahren zum automatischen Berechnen von MR-Bildgebungs-Scanparametern
DE102013103832A1 (de) Dämpfungskorrektur in der Positronen-Emissions-Tomographie unter Verwendung von Magnetresonanztomographie
DE102009044075A1 (de) Auf aktiven elektronischen Patientenakten basierendes Unterstützungssystem unter Nutzung von lernenden Automaten
DE102006062465A1 (de) Computer unterstütztes Detektionssystem unter Verwendung einer zeitlichen Analyse als Vorläufer einer räumlichen Analyse
DE102008032996B4 (de) Verfahren zur Bestimmung einer Schwächungskarte
DE102016219488A1 (de) Verfahren zum Bereitstellen einer Konfidenzinformation
EP3485457B1 (de) System, insbesondere magnetresonanzsystem, zum erzeugen von bildern
DE102009017439A1 (de) Verfahren und Vorrichtung zur Bildgebung eines vorbestimmten Volumenabschnitts mittels PET-Daten
DE102017221830A1 (de) Charakterisierung eines Störkörpers innerhalb eines Untersuchungsobjektes anhand eines medizinischen Bilddatensatzes
DE102018214325A1 (de) Verfahren und Bereitstellungseinheit zum Bereitstellen eines virtuellen tomographischen Schlaganfall-Nachfolgeuntersuchungsbildes
EP3404436B1 (de) Funktionelle magnetresonanz-bildgebung
DE102012222073B4 (de) Verfahren zur Auswertung von Bilddatensätzen und Kombinationsbildaufnahmeeinrichtung
DE102014210218A1 (de) Verfahren zum Generieren von medizinischen Bilddatensätzen
DE102020211945A1 (de) Verfahren und Anordnung zur automatischen Lokalisierung von Organsegmenten in einem dreidimensionalen Bild
DE102014225299A1 (de) Verfahren zur Rekonstruktion von Magnetresonanz-Bilddaten
DE102015200850B4 (de) Verfahren zur Auswertung von medizinischen Bilddaten
DE112020001823T5 (de) ENTFERNUNG VON FALSCH-POSITIVEN AUS WEIßE-SUBSTANZ-FASERTRAKTEN
DE102016209885B4 (de) Automatische Charakterisierung von Lebergewebe
DE102013214023A1 (de) Verfahren zu einem Auswerten und Vergleichen von zeitlich aufeinander folgenden kombinierten medizinischen Bildgebungsuntersuchungen sowie ein medizinisches Bildgebungssystem, das zu einem Ausführen des erfindungsgemäßen Verfahrens ausgelegt ist
DE102012215825A1 (de) Bestimmung eines flächigen Untersuchungsbereiches

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final