DE102008061170A1 - Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten sowie Vorrichtung zur Bildverarbeitung - Google Patents

Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten sowie Vorrichtung zur Bildverarbeitung Download PDF

Info

Publication number
DE102008061170A1
DE102008061170A1 DE102008061170A DE102008061170A DE102008061170A1 DE 102008061170 A1 DE102008061170 A1 DE 102008061170A1 DE 102008061170 A DE102008061170 A DE 102008061170A DE 102008061170 A DE102008061170 A DE 102008061170A DE 102008061170 A1 DE102008061170 A1 DE 102008061170A1
Authority
DE
Germany
Prior art keywords
image data
segmentation
segmented
structures
seed points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008061170A
Other languages
English (en)
Inventor
Annemarie Dr. Bakai
Jens Kaftan
Til Prof. Aach
Atilla Peter Kiraly
Carol L. Novak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of DE102008061170A1 publication Critical patent/DE102008061170A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Segmentierung von 3-D-Bilddaten bildgebender medizinischer Modalitäten, insbesondere zur Segmentierung von Gefäßstrukturen aus 3-D-Bilddaten, mit folgenden Verfahrensschritten, erstens Bereitstellen der Bilddaten, zweitens schwellwertbasiertes erstes Segmentieren der Bilddaten zur Erzeugung erster segmentierter Bilddaten, drittens Festlegen von einem oder mehreren Saatpunkten in den ersten segmentierten Bilddaten, und viertens ausgehend von den Saatpunkten, saatpunktbasiertes zweites Segmentieren der Bilddaten zur Erzeugung zweiter segmentierter Bilddaten. Weiterhin betrifft die vorliegende Erfindung eine Vorrichtung zur Bildverarbeitung.

Description

  • Die vorliegende Erfindung liegt auf dem Gebiet der Medizintechnik und betrifft ein Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten. Die Erfindung betrifft insbesondere die Segmentierung von Gefäßstrukturen aus kontrastverstärkten 3D-CT-Bilddaten einer Lunge. Weiterhin betrifft die Erfindung eine Vorrichtung zur Bildverarbeitung. Die genannten medizinischen Modalitäten umfassen beispielsweise Computer-Tomographen, MR-Geräte, Durchleuchtungs- und Aufnahmesysteme, Ultraschallgeräte etc.
  • In der heutigen Medizin spielt die computergestützte Bildverarbeitung eine immer größer werdende Rolle. Gerade im Bereich der computergestützten Diagnostik und Operationsplanung sind Bemühungen vorhanden, neue Verfahren zu entwickeln und etablierte Verfahren weiter zu verbessern. Damit die von einer bildgebenden Modalität akquirierten Bilddaten für diese Anwendungsgebiete nutzbar gemacht werden können, ist abhängig von der jeweils vorliegenden medizinischen Fragestellung, eine entsprechende Segmentierung der Bilddaten notwendig.
  • Ein konkretes Anwendungsgebiet der Segmentierung von Bilddaten in der Medizin ist die Diagnostik von Lungenembolien. Obwohl Lungenembolien zu einer der häufigsten Ursachen für unerwartete Todesfälle zählen, sind Lungenembolien bei frühzeitiger Diagnose und entsprechender Gabe von Antikoagulantien weitestgehend vermeidbar. Die schnelle Behandlung mit Antikoagulantien ist dabei lebenswichtig, andererseits birgt die Behandlung mit Antikoagulantien auch Risiken, so dass eine korrekte Diagnose vor Behandlungsbeginn essentiell ist. Der behandelnde Arzt benötigt daher ein Mittel, welches es ihm ermöglicht, eine zutreffende und schnelle Diagnose einer Lungenembolie zu stellen, um ggf. gezielt eine Antikoagulantien behandlung einzuleiten und so für den erkrankten Menschen optimale Heilungschancen zu gewährleisten.
  • Die Segmentierung von Gefäßstrukturen aus CT- oder MR-Bilddaten ist heute Basis für verschiedenste medizinische Fragestellungen und Anwendungen, wie die vorstehend genannte Erkennung einer Lungenembolie. Dabei stellen unterschiedliche medizinische Fragestellungen unterschiedliche Anforderungen an die Segmentierung der Bilddaten. Beispielsweise haben bei einer Lungenembolie Gefäßstrukturen unterhalb einer bestimmten Größenordnung keinen Einfluss auf die Krankheitsprognose eines Patienten, so dass diese deshalb bei der Segmentierung normalerweise nicht von Interesse sind. Anders bei einer quantitativen Analyse kleiner Gefäße, hier ist beispielsweise die genaue Segmentierung der Gefäßgrenzen das vordringliche Erfordernis. Darüber hinaus ist für die Lunge eine genaue Reproduktion der Gefäßtopologie zur Unterscheidung von Venen und Arterien erforderlich. Generell gilt, dass eine verbesserte Segmentierung von Bilddaten bildgebender Modalitäten für alle Anwendungen vorteilhaft ist.
  • Zur Gefäßsegmentierung von CT- oder MR-Bilddaten der Lunge finden heute zumeist schwellwertbasierte Segmentierungsverfahren oder saatpunktbasierte Segmentierungsverfahren Anwendung. Beide Verfahren sind dem Fachmann grundlegend bekannt, so dass an dieser Stelle auf eine Beschreibung dieser Verfahren verzichtet werden kann, und der interessierte Leser auf die nachfolgend genannten Artikel verwiesen wird.
  • So lässt sich beispielsweise dem Artikel von A. P. Kiraly et al., „ANALYSIS OF ARTERIAL SUB-TREE AFFECTED BY PULMONARY EMBOLI" in Medical Imaging 2004, Image Processing, Proceedings of the SPIE, May 2004, vol. 5370, pp. 1720–1729, ein Verfahren zur schwellwertbasierten Segmentierung von kontrastverstärkten CT-Bilddaten einer Lunge entnehmen. Der Begriff „kontrastverstärkt" bezieht sich dabei auf den Umstand, dass dem Patienten vor seiner Abtastung durch das CT-Gerät ein Kontrastmittel gespritzt wird, was den Kontrast der Bilddaten erhöht und eine genauere Segmentierung erlaubt. Die nach der Abtastung durch das CT-Gerät erzeugten Bilddaten der Lunge werden bei dem in dem Artikel beschriebenen Verfahren zunächst durch Vorgabe eines Schwellwertes segmentiert, wobei der Schwellwert derart gewählt ist, dass auch dichtere Gefäßstrukturen den segmentierten Bilddaten zugeordnet werden, und wobei die segmentierten Bilddaten alle Voxel umfassen, deren zugeordnete Bildwerte oberhalb des Schwellwertes liegen. Anschließend wird für die segmentierten Bilddaten ein so genanntes „Connected-Component Labeling"-Verfahren durchgeführt. Hierbei werden Orte und Anzahl von segmentierten zusammenhängenden Strukturen bestimmt. Zudem werden Gefäßstrukturen mit kleinem Volumen eliminiert.
  • Alternativ zu den schwellwertbasierten Segmentierungsverfahren sind saatpunktbasierte so genannte „Region Growing"-Segmentierungsverfahren bspw. aus dem Artikel von Thomas Bülow et al., „AUTOMATIC EXTRACTION OF THE PULMONARY ARTERY TREE FROM MULTI-SLICE CT-DATA", in Medical Imaging 2005: Physiology, Function, and Structure from Medical Images. Proceedings of the SPIE, Apr. 2005, vol. 5746, pp. 730–740, bekannt. Das darin beschriebene „Region-Growing"-Verfahren nutzt ein von einem oder mehreren Saatpunkten ausgehenden „Fast Marching"-Algorithmus bei dem die Ausbreitungsgeschwindigkeit der wachsenden Front zur Segmentierung der baumartigen Gefäßstrukturen aus 3D-CT-Bilddaten einer Lunge konstant gehalten wird. Zusätzlich werden während der Segmentierung durch Überprüfung der Verbundenheit (engl. „Connectedness") für Punkte der Front Bifurkationspunkte ermittelt. Weitere Informationen zu einem „Fast Marching"-Algorithmus können beispielsweise dem Artikel von J. A. Sethian, „A FAST MARCHING LEVELSET METHOD FOR MONOTONICALLY ADVANCED FRONTS", Cambridge University Press, 1999, entnommen werden. Ein weiteres „Region Growing"-Verfahren zur Segmentierung von Blutgefäßen aus MR-Bilddaten geht aus dem Artikel von S. Eiho et al.,"BRANCH-BASED REGION GROWING METHOD FOR BLODD VESSEL SEGMENTATION", ISPRS Congress, ISPRS 2004, pp 796–801, hervor, auf den hiermit verwiesen wird.
  • Ein weiterer viel versprechender Ansatz, mit dem aus Bilddaten Informationen, wie bspw. Gefäßstrukturen, extrahiert werden können beruht darauf, Bildinformationen grundsätzlich als unscharfe Informationsmengen aufzufassen, die der Fuzzy-Logik zugänglich sind. Dieser Methode liegt der Begriff des „Zusammenhängens" (engl. „hanging togetherness" oder „connectedness") von Bildelementen (Voxel) zugrunde, der jeweils durch die lokale Affinität μK(c, d) benachbarter Voxel c, d spezifiziert wird. Dabei wird ein Bildobjekt (bspw. eine in den Bilddaten abgebildete Struktur) vom Bildhintergrund dadurch separiert, dass die Affinität von jedem zum Bildobjekt gehörenden Voxel größer ist als dessen Affinität zum Bildhintergrund.
  • Eine ausführliche Erläuterung von Segmentierungsverfahren, die mit „Fuzzy Connectedness" Algorithmen arbeiten, findet sich in dem Artikel von J. K. Udupa, „FUZZY CONNECTEDNESS AND OBJECT DEFINITION: THEORY, ALGORITHMS, AND APPLICATIONS IN IMAGE SEGMENTATION" in Graph. Models Image Process., vol 58, no. 3, pp 246–261, und in der Druckschrift US 5,812,691 .
  • Der Vorteil schwellwertbasierter Segmentierungsverfahren liegt in ihrer einfachen und schnellen Ausführbarkeit. Allerdings bleiben durch die Vorgabe eines Schwellwertes bei der Segmentierung lokale Verbundenheitsinformationen („Connectivity Informations") der zu segmentierenden Bilddaten vollständig unberücksichtigt. Dadurch können isolierte Regionen der Bilddaten fälschlicherweise in das Segmentierungsergebnis einbezogen, oder in Wirklichkeit zusammenhängende Strukturen im Segmentierungsergebnis als separierte Strukturen dargestellt werden. Beides gibt Anlass zu falschen Interpretationen des Segmentierungsergebnisses.
  • Im Gegensatz hierzu, beruhen saatpunktbasierte „Region Growing"-Verfahren auf der Ermittlung der Verbundenheit (engl. Connectedness” oder „Connectivity") der zu segmentierenden Daten. Abhängig von der Genauigkeit des Segmentierungsalgo rithmus können dadurch in vorteilhafter Weise beispielsweise die baumartigen Gefäßstrukturen von Arterien und Venen in der Lunge als separate Strukturen erkannt werden. Allerdings können lokale Inhomogenitäten in den CT- oder MR-Bilddaten, wie sie bspw. durch eine Lungenembolie, d. h. der Verstopfung eines Blutgefäßes der Lunge, hervorgerufen werden, zu einem frühzeitigen Abbruch des „Region Growing"-Prozesses führen. Als Ergebnis werden dann ganze Gefäßstrukturen oder Gefäßteilstrukturen bei der Segmentierung nicht erfasst, was wiederum zu falschen Interpretationen der segmentierten Bilddaten Anlass geben kann.
  • Aufgabe der Erfindung ist es, ein Verfahren sowie eine Vorrichtung zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten anzugeben, bei dem die vorstehend angegebenen Nachteile des Standes der Technik verringert werden. Das Verfahren und die Vorrichtung sollen insbesondere eine verbesserte Segmentierung von Gefäßstrukturen in Organen, wie beispielsweise der Lunge, ermöglichen und verbessern.
  • Die Aufgabe wird mit dem Verfahren gemäß Patentanspruch 1 und der Vorrichtung gemäß Anspruch 24 gelöst. Vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche oder lassen sich den Ausführungsbeispielen entnehmen.
  • Erfindungsgemäß umfasst das Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten, insbesondere zur Segmentierung von Gefäßstrukturen aus 3D-Bilddaten, folgende Verfahrensschritte:
    • a. Bereitstellen der Bilddaten,
    • b. schwellwertbasiertes erstes Segmentieren der Bilddaten zur Erzeugung erster segmentierter Bilddaten,
    • c. Festlegen von einem oder mehreren Saatpunkten in den ersten segmentierten Bilddaten,
    • d. ausgehend von den Saatpunkten, saatpunktbasiertes zweites Segmentieren der Bilddaten zur Erzeugung zweiter segmentierter Bilddaten.
  • Das erfindungsgemäße Verfahren besteht somit im Wesentlichen aus zwei Abschnitten. Einem ersten Abschnitt (Verfahrensschritte a bis c), in dem die bereitgestellten, zu segmentierenden 3D-Bilddaten einer bildgebenden Modalität, bspw. eines Computer Tomographen (CT-Gerät) oder eines Magentresonanztomographen (MR-Gerät), mit einem schwellwertbasierten Segmentierungsverfahren zu ersten segmentierten Bilddaten verarbeitet werden. Die dabei erhaltenen, in den ersten segmentierten Bilddaten abgebildeten Objekte oder Strukturen dienen ausschließlich der Festlegung von Saatpunkten (Voxel) in Verfahrensschritt c. Darüber hinaus finden die ersten segmentierten Bilddaten keine weitere Verwendung. Abhängig von den Segmentierungsparametern werden bei der ersten schwellwertbasierten Segmentierung der Bilddaten in Verfahrensschritt b mehrere oder wenigere zusammenhängende Strukturen erkannt. Damit besteht in der entsprechenden Vorgabe oder in einer entsprechenden automatischen Ermittlung der Segmentierungsparameter eine erste Justiermöglichkeit des erfindungsgemäßen Verfahrens. In Verfahrensschritt c werden die in den ersten segmentierten Bilddaten abgebildeten Strukturen bzw. Teilstrukturen zu einem oder mehreren Saatpunkten reduziert. Das Ermitteln der Saatpunkte erfolgt vorteilhafterweise automatisiert und wird nachfolgend noch eingehender erläutert.
  • Im zweiten Abschnitt des erfindungsgemäßen Verfahrens erfolgt eine verbessertes zweites saatpunktbasiertes Segmentieren der bereitgestellten 3D-Bilddaten auf Basis der in Verfahrensschritt c festgelegten Saatpunkte. Das zweite, saatpunktbasierte Segmentieren liefert damit das eigentliche Segmentierungsergebnis des erfindungsgemäßen Verfahrens.
  • Das erfindungsgemäße Verfahren verbindet die Vorteile einer schwellwertbasierten Segmentierung bereitgestellter 3D-Bilddaten, die eine schnelle Identifikation von in den 3D- Bilddaten abgebildeten Strukturen mit hoher Spezifität erlaubt, und so eine verlässliche Ermittlung von mehreren Saatpunkten innerhalb der identifizierten Strukturen und Teilstrukturen ermöglicht, mit den Vorteilen einer saatpunktbasierten Segmentierung. Durch die verlässliche Ermittlung der Saatpunkte auch in Teilstrukturen der in den Bilddaten abgebildeten Bildinformationen, erfolgt bei dem saatpunktbasierten zweiten Segmentieren der Bilddaten auch im Falle des Auftretens von lokalen Inhomogenitäten, bspw. durch das Auftreten einer Lungenembolie, kein Verlust aller nachfolgenden Teilstrukturen.
  • Vorzugsweise wird das Verfahren auf 3D-Bilddaten angewandt, die von einem CT- oder ein MR-Gerät erzeugt wurden. Natürlich eignet sich das Verfahren auch zur Anwendung auf andere bildgebende medizinische Modalitäten. Vor einer Abtastung eines Patienten mit einem CT-Gerät wird in einer bevorzugten Ausführungsform dem Patienten ein Kontrastmittel injiziert, was zu kontrastverstärkten CT-Bilddaten führt und die Segmentierungsergebnisse der Bilddaten deutlich verbessert.
  • Für das Verfahren kann auf Originalbilddaten einer Modalität aber auch auf vorverarbeitete Bilddaten, insbesondere durch Kantenhervorhebung und/oder Rauschunterdrückung und/oder Filterung, insbesondere mit einem Gefäßmutmaßlichkeitsfilters (engl. vesselness filter), und/oder morphologische Operationen bearbeitete Bilddaten, angewendet werden.
  • In besonders vorteilhafter Weise erfolgt vor Verfahrensschritt b ein Maskieren der Bilddaten, wobei die Bilddaten auf einen interessierenden Teilbereich (ROI = „Region Of Interest" der Bilddaten reduziert werden, insbesondere auf einen Teilbereich, in dem Bilddaten eines Organs enthalten sind. Das Verfahren eignet sich insbesondere zur Gefäßsegmentierung aus 3D-CT- oder 3D-MR-Bilddaten der Lunge. Allerdings ist das Verfahren gleichermaßen zur Segmentierung von Gefäßstrukturen in anderen Körperregionen oder Organen, wie bspw. dem Herz, der Leber, etc. verwendbar.
  • In einer bevorzugten Ausführungsform umfasst das Maskieren der 3D-Bilddaten einen „Region Growing"-Prozess und/oder morphologische Bilddatenoperationen. Nähere Ausführungen hierzu finden sich in den Erläuterungen zu den Ausführungsbeispielen.
  • Das erste Segmentieren erfolgt mit Segmentierungsparametern, die auf Basis der Bilddaten errechnet, oder interaktiv von einem Nutzer oder fix vorgegeben werden können. Dabei erfolgt das erste Segmentieren vorteilhafterweise mit Segmentierungsparametern, die ein Segmentieren von in den Bilddaten abgebildeten Strukturen, insbesondere von in den Bilddaten abgebildeten Gefäßstrukturen, mit hoher Spezifität ermöglichen. Weiterhin kann das erste Segmentieren einen Schritt umfassen, in dem segmentierte Strukturen, insbesondere Gefäßstrukturen, die ein vorgebbares Volumen vmin unterschreiten gelöscht werden. Dies erhöht die Spezifität der Segmentierung. Treten bei dem ersten Segmentieren Fehler oder Lücken in den Gefäßstrukturen auf, so kann das erste Segmentieren (Verfahrensschritt 103) eine oder mehrere morphologische Bilddatenoperationen umfassen.
  • In einer vorteilhaften Ausführungsform umfasst das Ermitteln der ein oder mehreren Saatpunkte eine dreidimensionale Euklidische Distanz Transformation. Vorteilhafterweise werden der oder die Saatpunkte durch lokale Maxima in Distanz transformierten Bilddaten bestimmt. Als Saatpunkte werden typischerweise Bildvoxel ausgewählt werden, die auf Mittellinien innerhalb segmentierter Strukturen, insbesondere auf Mittellinien innerhalb von segmentierten Gefäßen, liegen. Dabei werden vorzugsweise Saatpunkte gewählt, die bei in den ersten segmentierten Bilddaten abgebildeten segmentierten Gefäßbaumstrukturen nahe am Gefäßstamm der Gefäßbaumstrukturen liegen.
  • Das zweite Segmentieren erfolgt in besonders vorteilhafter Weise in zwei Abschnitten, wobei im ersten Abschnitt für jedes Bildvoxel der Bilddaten ein oder mehrere Wahrscheinlich keitswerte ermittelt werden, die die Wahrscheinlichkeit angeben, dass ein Bildvoxel zu einem der Saatpunkte und/oder einer einem Saatpunkt zugeordneten Struktur gehört, und im zweiten Abschnitt auf Basis der für die Bilddaten ermittelten Wahrscheinlichkeitswerte eine binäre Klassifizierung (Segmentierung) der Bilddaten erfolgt. Der erste Abschnitt basiert grundlegend darauf, dass die bereitgestellten Bilddaten als unscharfe Menge im Sinne der Fuzzy Logik aufgefasst werden und damit den Methoden der Fuzzy Logik zugänglich sind. In besonders vorteilhafter Weise wird daher im ersten Abschnitt des Verfahrensschrittes 105 ein „Fuzzy Connectedness"- oder ein „Fast Marching"-Algorithmus ausgeführt. Beide dem Fachmann an sich bekannten Algorithmen zeichnen sich dadurch aus, dass sie von einem oder mehreren Saatpunkten aus starten und jedes Bildvoxel zumindest einen Wert zugewiesen bekommt, der die Wahrscheinlichkeit angibt oder der als Wahrscheinlichkeit interpretierbar ist, dass das Bildvoxel zu einem der Saatpunkte und/oder einer einem Saatpunkt zugeordneten Struktur gehört. Dieser einem Bildvoxel zugewiesene Wert beruht auf lokalen Bildinformationen des betrachteten Bildvoxels und der den Nachbarvoxeln bereits zugewiesenen Werte. Beim „Fast Marching" Algorithmus ergibt sich bspw. ein als Wahrscheinlichkeitswert interpretierbarer Wert aus dem reziproken Wert der in diesem Algorithmus ermittelten Frontankunftszeit. Weitere Ausführungen und Erläuterungen hierzu sind den Ausführungsbeispielen zu entnehmen.
  • In besonders vorteilhafter Weise werden die Verfahrensschritte a bis d automatisiert ausgeführt. Damit ist einerseits eine vollautomatisierte Segmentierung realisierbar, andererseits kann nach einem ersten vollständigen Durchlauf des Segmentierungsverfahrens (a–d) eine Feinjustierung der Segmentierung durch Wiederholung einzelner oder aller Verfahrensschritte (a bis d) unter manueller Vorgabe geänderter oder neuer Parameter erfolgen. So können die Verfahrensschritte b bis d anschließend an Verfahrensschritt d erneut ausgeführt werden, wobei geänderte Segmentierungsparameter für Verfahrensschritt b, und/oder geänderte und/oder neue Saatpunkte für Schritt c, und/oder geänderte Segmentierungsparameter für Schritt d vorgegeben werden. Alternativ können die Schritte c und d anschließend an Schritt d erneut ausgeführt werden, wobei geänderte und/oder neue Saatpunkte für Schritt c, und/oder geänderte Segmentierungsparameter für Schritt d vorgegeben werden. Schließlich kann der Schritt d anschließend an Schritt d erneut ausgeführt werden, wobei geänderte Segmentierungsparameter für Schritt d vorgegeben werden.
  • Das vorgeschlagene flexible Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten kann für verschiedenste Anwendungen eingesetzt werden. Es eignet sich insbesondere zur Segmentierung von Gefäßstrukturen aus 3D-CT- oder 3D-MR-Bilddaten der Lunge. Das vorgeschlagene Verfahren kombiniert die Vorteile von schwellwertbasierten Segmentierungsverfahren mit den Vorteilen saatpunktbasierter Segmentierungsverfahren und ermöglicht eine robuste vollautomatisierte oder semiautomatische Segmentierung von Bilddaten. Nachteile beider Verfahren können durch die vorgeschlagene Kombination beider Verfahren weitgehend vermieden werden. Darüber hinaus kann die Sensitivität bzw. die Spezifität des Verfahrens leicht an die Anforderungen spezieller Anwendungen angepasst werden.
  • Zusätzlich ist durch den Nutzer eine einfache Beeinflussung des Segmentierungsergebnisses durch Vorgabe neuer oder geänderter Saatpunkte oder durch eine Einflussnahme auf die Sensitivität bzw. die Spezifität des Verfahrens, bspw. durch Vorgabe geänderter Schwellwerte oder Segmentierungsparameter, möglich. Obwohl das Verfahren in den nachfolgenden Ausführungsbeispielen zur Segmentierung von Gefäßstrukturen aus kontrastverstärkten CT-Bilddaten der Lunge ausführlich beschrieben wird, kann das Verfahren ebenso zur Gefäßsegmentierung anderer Organe benutzt werden. Vorteilhafterweise werden dabei die Bilddaten mittels einer entsprechenden Maske auf den interessierenden Bilddatenbereich (ROI) reduziert. Weiterhin kann das Wissen der Gefäßzugehörigkeitswahrscheinlichkeit zu bestimmten Strukturen oder Objektklassen für jedes Voxel zur Unterscheidung von Venen und Arterien herangezogen werden. Indem nur Voxel mit einer hohen Gefäßzugehörigkeitswahrscheinlichkeit betrachtet werden, kann die Zahl der Punkte, in denen Arterien und Venen fälschlicherweise miteinander verbunden sind und dadurch Fehlinterpretationen der segmentierten Bilddaten möglich sind, signifikant reduziert werden. Dies führt somit zusätzlich zu einer gesteigerten Leistungsfähigkeit bei der Unterscheidung bzw. Separierung von Arterien und Venen.
  • Der die Vorrichtung betreffende Teil der Aufgabenstellung wird durch eine, zumindest mit einer bildgebenden Modalität verbindbaren Vorrichtung zur Bildverarbeitung, mit mindestens einer Eingabe-, einer Ausgabe-, einer Speicher- und einer Prozessoreinheit, gelöst, wobei Mittel, vorzugsweise Programm-Mittel, vorgesehen sind, die derart ausgebildet sind, dass die Verfahrensschritte gemäß mindestens einem der Ansprüche 1–23 ausführbar sind.
  • Weitere Einzelheiten und Vorteile der Erfindung werden nachfolgend anhand von in Zeichnungen dargestellten Ausführungsbeispielen erläutert. Dabei wird ohne Beschränkung des Erfindungsgedankens auf Ausführungsbeispiele abgehoben, bei denen das erfindungsgemäße Verfahren zur Segmentierung von Lungengefäßen angewandt wird.
  • Es zeigen:
  • 1 schematisierte Darstellung eines erfindungsgemäßen Verfahrens,
  • 2 Plot der Wahrscheinlichkeitsfunktion g5, die vom gemessenen Grauwert der Bildvoxel f(xi) und des zugehörigen Gradienten |∇⨍(xi)| abhängt. Der Wahrscheinlichkeitswert für f(xi) = μ1 ist 1. Die Wahrscheinlichkeitsfunktion fällt bspw. für |∇⨍(xi)| = 0 und f(xi) = μ1 ± ω1 bzw. für |∇⨍(xi)| = ω2 und f(xi) = μ1 ± ω1/2 auf Null ab.
  • 3a–c Ergebnisse des erfindungsgemäßen Segmentierens der Bilddaten bei Nutzung eines „Fuzzy Connectedness" Algorithmus, und.
  • 1 zeigt eine schematisierte Darstellung eines erfindungsgemäßen Verfahrens zur voll- und semiautomatischen Segmentierung von Lungengefäßen aus kontrasterhöhten 3D-Bilddaten eines CT-Gerätes. Das Verfahren besteht aus zwei operationellen Phasen 103, 105. Zu Beginn des Verfahrens werden originale 3D-Bilddaten des CT-Gerätes zur Verfügung gestellt 101. In weiteren Ausführungsformen können alternativ auch bearbeitete multimodale 3D-Bilddaten, bspw. durch Kantenhervorhebung, Rauschunterdrückung oder Filterung bearbeitete 3D-Bilddaten, bereitgestellt werden. Natürlich ist das Verfahren nicht auf Bilddaten von CT-Geräten beschränkt. Andere bildgebende Modalitäten, wie MR-Geräte, können ebenfalls zur Erzeugung bzw. Bereitstellung von 3D-Bilddaten benutzt werden.
  • Neben den 3D-Bilddaten des CT-Gerätes wird eine Maske 102 des interessierenden Bildbereiches (engl. „Region of Interest" (ROI)), im vorliegenden Fall also der linken und rechten Lunge bereitgestellt. Das Bereitstellen der 3D-Bilddaten erfolgt bspw. direkt durch die bildgebende Modalität, oder indirekt über ein Bildverarbeitungssystem, eine Speichereinheit, etc. Im Stand der Technik sind unterschiedliche Möglichkeiten bekannt, eine Lungenmaske für CT-Bilddaten zu erzeugen.
  • In dem vorliegenden Beispiel wird die Lungenmaske 102 durch einen „Region Growing"-Prozess ausgehend von einem Saatpunkt in der Luftröhre erhalten. Dieser „Region Growing"-Prozess benutzt hohe Schwellwerte um die Lungen auszufüllen. Damit die Luftröhre und die Hauptluftwege von der Lungenmaske wieder entfernt werden können, wird von dem Saatpunkt in der Luftröhre ein „Region Growing"-Prozess mit adaptiven Schwellwerten durchgeführt. Anschließend erfolgt ein morphologisches Schließen leerer Räume in den segmentierten Daten. Schließ lich wird die Lungenmaske in ihrer Größe, d. h. in ihrer Ausdehnung, verkleinert, um zu verhindern, dass Rippen oder andere Strukturen nahe der Lungenoberfläche, wie die obere Hohlvene (Vena cava Superior) in die Lungenmaske eingeschlossen werden. Diese Verkleinerung der Lungenmaske hat keine Auswirkungen auf die spätere Segmentierung der Gefäßstrukturen, da in einem Abstand von 5–10 mm von der Pleura (Brustfell) in normalen CT-Scans keine Gefäßstrukturen erscheinen.
  • In dem Schritt 103 werden die Voxel identifiziert, die zur Gefäßstruktur der in den 3D-Bilddaten abgebildeten Lunge gehören. Hierzu erfolgt für die maskierten 3D-CT-Bilddaten ein schwellwertbasiertes Segmentieren. Dabei werden erste segmentierte Bilddaten erzeugt, die Gefäßstrukturen in der Lunge zeigen. Die hierbei verwendeten Segmentierungsparameter können auf Basis der Grauwertverteilung in den 3D-Bilddaten der Lunge errechnet, interaktiv von einem Nutzer oder als Konstanten vorgegeben werden. Als nächstes wird für die in den ersten segmentierten Bilddaten abgebildeten Strukturen ein so genannter „Connected Component Labeling"-Prozess durchgeführt. Bei dem „Connected Component Labeling"-Prozess werden die ersten segmentierten Bilddaten Voxel für Voxel abhängig von ihren verbindenden Eigenschaften zu Gefäßkomponenten gruppiert. So weisen alle Bildvoxel einer Gefäßkomponente oder einer Gefäßklasse als verbindende Eigenschaft bspw. ähnliche oder gleiche Intensitätswerte auf. Weiterhin werden Gefäßkomponenten, die ein vorgebbares Minimalvolumen vmin nicht überschreiten gelöscht. Abhängig vom gewählten Minimalvolumen vmin werden nach dem vorangehenden Löschungsschritt n eindeutige Gefäßkomponenten (Teilstrukturen) identifiziert. Dabei führt ein hoher Wert von Vmin zu einer geringen Zahl n und umgekehrt. Der Parameter Vmin kann basierend auf der durch die erste Segmentierung in den ersten segmentierten Bilddaten erzeugte Volumenverteilung aller Gefäßkomponenten oder nachdem ein Minimum an erwarteten Gefäßkomponenten tatsächlich gefunden wurde, automatisch oder manuell angepasst werden. Lücken in den ersten segmentierten Bilddaten können zudem mit bekannten morphologischen Datenoperationen geschlossen werden.
  • Der Schritt 103 umfasst mithin neben der schwellwertbasierten ersten Segmentierung der kontrastverstärkten 3D-Bilddaten des CT-Gerätes auch Prozesse zur Nachbearbeitung der ersten segmentierten Bilddaten, wie „Connected Component Labeling", morphologische Operationen und das Löschen von segmentierten Gefäßstrukturen mit einem Volumen unterhalb eines vorgebbaren Minimalvolumens vmin. Vorteilhafterweise werden die für den Schritt 103 erforderlichen Parameter derart gewählt, dass im Ergebnis eine Segmentierung der Kernstruktur der Lungengefäße mit hoher Spezifität möglich ist, und nicht derart, dass eine Segmentierung einer möglichst vollständigen Lungengefäßstruktur möglich ist. Nach Durchführung der vorstehenden Prozesse liegen als Ergebnis des Schrittes 103 die ersten segmentierten Bilddaten vor.
  • In Schritt 104 erfolgt das Ermitteln von mehreren Saatpunkten in den ersten segmentierten Bilddaten, d. h. von Saatpunkten innerhalb der in den ersten segmentierten Bilddaten abgebildeten Gefäßstrukturen. Es wird dabei ein Verfahren angewendet, bei dem aus den segmentierten Gefäßkomponenten zunächst eine röhrenförmig verzweigte Strukturen und für diese Strukturen Mittellinien ermittelt werden. Hierzu wird zunächst eine dreidimensionale euklidische Distanztransformation für die ersten segmentierten Bilddaten ausgeführt. Nach dieser Transformation wird jedem Bildvoxel die quadratische euklidische Distanz r2 zur nächst liegenden Gefäßoberfläche zugeordnet. Aus lokalen Maxima dieser Distanzwerte kann geschlossen werden, dass die zugehörigen Bildvoxel mit hoher Wahrscheinlichkeit auf der Mittellinie des jeweiligen Gefäßabschnittes liegen. Diese Voxel kommen daher grundsätzlich als Saatpunkte in Betracht.
  • Zusätzlich kann ein Distanzintervall [r1, r2] vorgegeben werden, so dass nur Voxel mit einer Distanz zur nächst liegenden Gefäßoberfläche von r1 2 ≤ r2 ≤ r2 2 berücksichtigt werden. Abhängig von den physikalischen Positionen und den ermittelten quadratischen Distanzwerten der möglichen Saatpunkte erfolgt ein Clustern der Saatpunkte, wobei den Saatpunkten mit großen Werten r2 Vorrang eingeräumt wird. Da Blutgefäße in den Lungen eine Baumstruktur aufweisen, die sich vom Zentrum in Richtung Peripherie verzweigt und verjüngt, werden die Repräsentanten der Saatpunktcluster tendenziell näher am Zentrum der Lunge liegen, da die Distanzwerte r2 in diesem Bereich maximal sind. Die Repräsentanten der verschiedenen Saatpunktcluster sind die in Schritt 104 ermittelten Saatpunkte. Die Zahl dieser Saatpunkte hängt von der ersten Segmentierung und der Zahl n der identifizierten Gefäßkomponenten in Schritt 103 ab. Weiterhin kann für Fälle festgestellt werden, in denen eine identifizierte Gefäßkomponente sowohl Arterien und Venen mit unterschiedlichem Ursprung enthält, sehr wahrscheinlich in dieser Gefäßkomponente mehrere Saatpunkte vorliegen und so eine Unterscheidung beider Gefäßklassen möglich ist.
  • In Schritt 105 erfolgt nun die eigentliche, verfeinerte zweite saatpunktbasierte Segmentierung von Lungengefäßen aus den maskierten 3D-Bilddaten des CT-Gerätes. Das zweite Segmentieren erfolgt dabei in zwei Abschnitten, wobei im ersten Abschnitt für jedes Bildvoxel der Bilddaten ein oder mehrere Wahrscheinlichkeitswerte ermittelt werden, die die Wahrscheinlichkeit angeben, dass ein Bildvoxel zu einem der Saatpunkte und/oder einer einem Saatpunkt zugeordneten Gefäßstruktur gehört. Im zweiten Abschnitt erfolgt auf Basis der für die Bilddaten ermittelten Wahrscheinlichkeitswerte eine binäre Segmentierung (Klassifizierung) der Bilddaten, d. h. die Anwendung einer auf einem vorgebbaren Schwellwert basierenden Segmentierung. Dieser Schwellwert kann automatisiert auf Basis der ermittelten Wahrscheinlichkeitswerte erzeugt oder manuell vorgegeben werden. Als Input dienen für diesen Verfahrensschritt die Originalbilddaten des CT-Gerätes, die Lungenmaske 102 sowie die ermittelten Saatpunkte aus Schritt 104. Der Verfahrensschritt 105 kann auch als „Fuzzy Segmentierung" bezeichnet werden, da im ersten Abschnitt die Bilddaten als unscharfe Menge aufgefasst und mit Methoden der Fuzzy Logik analysiert werden. Diese „Fuzzy Segmentierung", d. h. das Erzeugen der Wahrscheinlichkeitswerte für jedes Bildvoxel kann nach unterschiedlichen Methoden erfolgen. Allen diesen Methoden gemeinsam ist, dass sie die Prozesse von einem oder mehreren Saatpunkten starten und dass benachbarte Bildvoxel einen Wahrscheinlichkeitswert ihrer Gefäßzugehörigkeit basierend auf lokalen Bilddaten und den bereits ermittelten Gefäßzugehörigkeitswahrscheinlichkeitswerten für die Nachbarvoxel erhalten. Bildvoxel, die vom Prozess noch nicht einbezogen wurden, ist der Wahrscheinlichkeitswert Null zugewiesen. Damit kann dieser Prozess mit der Ausbreitung einer Front verglichen werden, bei dem Nachbarvoxel mit einer höheren Wahrscheinlichkeit zu einer Gefäßstruktur zu gehören schneller in den Prozess einbezogen werden als Bildvoxel mit einem entsprechend niedrigen Wahrscheinlichkeitswert. Damit ist die Ankunftszeit der Ausbreitungsfront umgekehrt proportional zur Gefäßzugehörigkeitswahrscheinlichkeit.
  • Im Folgenden werden zwei mögliche Implementierungen des ersten Abschnitts von Schritt 105 näher beschrieben. Die erste Methode wird „Fuzzy Connectedness" Methode bezeichnet. Darin wird die Gefäßzugehörigkeitswahrscheinlichkeit eines Voxels aus der Betrachtung der Stärke der Verbundenheit zwischen den betrachteten Voxeln und den Saatpunkten ermittelt. Die zweite Methode wird „Fast Marching" Methode bezeichnet. Darin wird die Ausbreitung einer Front von einem oder mehreren Saatpunkten modelliert, die sich jeweils verstärkt in Regionen mit Gefäßstrukturen ausbreitet.
  • Die „Fuzzy Connectedness" Methode basiert auf dem Konzept des Verbundenseins (engl. „hanging togetherness", „belongingness"). Dabei wird ein Objekt O mit seinen Saatpunkten si ∈ O i ∈[0, N – 1] und der Bildhintergrund B dadurch voneinander getrennt, dass das Verbundensein jedes Objektvoxels zum Objekt O größer ist als das Verbundensein jedes Bildhintergrundvoxels zum Objekt O. Der Bildhintergrund kann dabei natürlich aus verschiedenen Objekten bestehen, die aber nicht von Interesse sind.
  • Die Wahrscheinlichkeit, dass zwei benachbarte Bildvoxel c, d zur selben Objektgruppe gehören wird durch die als „Affinität" bezeichnete lokale Fuzzy-Relation μK(c,d) definiert. Die Nachbarschaft eines Voxels in den 3D-Bilddaten wird typischerweise durch dessen 6 oder 26 nächste Nachbarn definiert. Die Affinität von Nichtnachbarvoxeln ist Null und die Affinität eines Voxels zu sich selbst ist Eins: μK(c,c) = 1. Für alle anderen Voxelpaarungen wird die Affinität als Wahrscheinlichkeitsfunktion beschrieben, die im Folgenden noch eingehender erläutert wird. Dabei sei erwähnt, dass die Wahrscheinlichkeitsfunktion symmetrisch ist, d. h. es gilt: μK(c,d) = μK(d,c). (1)
  • Die Stärke des Verbundenseins (engl. „strength of connectendness") von zwei entfernten Voxeln c, d entlang des Pfades Pc,d entspricht der kleinsten paarweisen Affinität entlang des Pfades. Ein Pfad pc,a von Voxel c zu Voxel d entspricht einer Sequenz von m > 2 Nachbarvoxeln (c(1), c(2), ..., c(m)), wobei gilt c( 1 ) = c und c(m) = d. Das bedeutet, dass für die Stärke des Verbundenseins gilt: μN(pc,d) = min (μK(c(1), c(2)), μK(c(2), c(3)), ..., μK(c(m-1), c(m))] (2)
  • Da innerhalb der 3D-Bilddaten zahlreiche mögliche Pfade existieren, wird ein globales Verbundensein (engl. „global connectivity") als die stärkste Affinität von allen möglichen Pfaden zwischen den Voxeln c und d definiert:
    Figure 00170001
  • Wobei Pc,d den Satz aller möglichen Pfade pj angibt. Die Wahrscheinlichkeit dass ein Voxel zu einem Gefäß gehört ist damit:
    Figure 00170002
  • Die Wahrscheinlichkeit PGefäß stimmt dabei nicht mit der typischen Definition einer Wahrscheinlichkeitsfunktion überein. Denn sogar wenn die Wahrscheinlichkeit PGefäß für ein Voxel unter 0,5 liegt, kann dieses Voxel dennoch zu einer Gefäßstruktur gehören. Daher muss für die im zweiten Abschnitt des Schrittes 105 erfolgende binäre Segmentierung ein entsprechender Schwellwert gewählt werden.
  • Eine andere Methode der Implementierung des ersten Abschnittes von Schritt 105 ist die „Fast Marching" Methode. Dabei werden Gleichungen verwendet, die die dreidimensionale Ausbreitung einer Front(oberfäche) beschreiben, wobei die zugehörige Geschwindigkeitsfunktion entweder immer positiv F = F(x,y,z), F > 0 (oder immer negativ) ist. Als Ergebnis des entsprechenden Algorithmus wird die Ankunftszeit der Frontoberfläche an jedem Voxel gespeichert. Der Algorithmus ermittelt also den Pfad p(s) zwischen zwei Voxeln mit den geringsten Kosten (engl. Minimal cost"). Wenn die Kostenfunktion
    Figure 00180001
    als Reziproke der Geschwindigkeitsfunktion definiert wird, entspricht der Pfad mit den geringsten Kosten dem Pfad entlang der Frontoberfläche, der das betrachtete Zielvoxel zuerst erreicht. Die Ankunftszeit T(X) am Voxel X wird definiert durch:
    Figure 00180002
    wobei Ps,x die Menge aller möglichen Pfade zwischen einem Saatpunkt s und einem Voxel X angibt, und Ω = [0,L], wobei L die Länge des Pfades p angibt. Bei Vorliegen mehrerer Saatpunke si ∈ O, i ∈ [0, N-1] entspricht die Ankunftszeit der kleinsten Zeit in O:
    Figure 00180003
  • Die Wahrscheinlichkeit, dass ein Voxel X zur selben Objektklasse gehört wie ein Saatpunkt s ist umgekehrt proportional zu den minimalen Kosten entlang aller möglichen Pfade zwischen ihnen, und konsequenterweise ebenfalls umgekehrt proportional zu der Ankunftszeit T(X). Die Ankunftszeit T(X) erfüllt weiterhin die Eikonalgleichung: |∇T(x)|F(X) = 1 (7)die sich unter Verwendung der Kostenfunktion umschreiben lässt zu: |∇T(x)| = τ(X). (8)
  • Unter Verwendung einer Näherung für den Gradienten, ist damit folgende Gleichung zu lösen:
    Figure 00190001
  • Sofern die quadratische Gleichung in T(X) zwei Lösungen hat, wird die mit dem höheren Wert verwendet. Im Falle dass die Gleichung keine reelle Lösung besitzt bleibt in Gleichung (9) der Summand mit der maximalen Ankunftszeit unberücksichtigt, solange bis eine reele Lösung gefunden ist. Die Ankunftszeit T(s) für jede Saatposition s wird gleich 1 gesetzt, so dass sich für die Wahrscheinlichkeit, dass ein Voxel X zu einem Gefäß gehört ergibt:
    Figure 00190002
  • Es soll an dieser Stelle nochmals darauf hingewiesen werden, dass selbst wenn für die Wahrscheinlichkeit PGefäß < 0,5 gilt, das Voxel dennoch höchstwahrscheinlich zu einer Gefäßstruktur gehören kann.
  • Die Geschwindigkeitsfunktion F(X) und die lokale Affinitätsfunktion μK(c,d) beschreiben also die Wahrscheinlichkeit, dass ein Bildvoxel der bereitgestellten 3D-Bilddaten zur Klasse „Gefäße" und dass zwei benachbarte Voxel c, d zur selben Gefäßstruktur (Gefäßklasse) gehören. Derartige Funktionen können aus einer Wahrscheinlichkeitsfunktion bestehen, oder als Produkt oder gewichtete Summe mehrerer Wahrscheinlichkeitsfunktionen 106 zusammengesetzt sein.
  • Aus Gründen einer übersichtlicheren Darstellung beschränkt sich die folgende Ausführung zu den Wahrscheinlichkeitsfunktionen 106 auf unimodale Datensätze, allerdings ist eine Erweiterung des Dargestellten auf multimodale Datensätze in einer dem Fachmann bekannten Weise leicht möglich.
  • Fasst man das in den zu bearbeiten Bilddaten abgebildete Bild als Graphen auf, so wird der Wahrscheinlichkeitswert bei Verwendung der „Fast Marching" Methode den Stützstellen (engl. „nodes") und bei Verwendung der „Fuzzy Connectedness" Methode den Scheitelpunkten (engl. „vertices") zweier benachbarter Stützstellen zugewiesen. Damit ist die Wahrscheinlichkeitsfunktion g entweder eine Funktion des Wertes f(Xi), bspw. des Schwächungswertes in Hountsfield Units [HU] oder der Werte f(c) und f(d) der benachbarten Voxel c und d.
  • Die Wahrscheinlichkeitsfunktion g kann bspw. folgende Funktionen annehmen:
    Figure 00200001
    Figure 00210001
  • Die jeweils links stehenden Wahrscheinlichkeitsfunktionen g1–g4 beziehen sich auf die „Fast Marching" Methode, die rechts stehenden auf die „Fuzzy Connectedness" Methode. Die Ausdrücke μ1, μ2, σ1, σ2 repräsentieren die Mittelwerte und Varianzen der erwarteten Bildwerte und ihrer Gradienten. Wenn also g1 und der Geschwindigkeitsterm F und die lokale Affinität μK groß werden, ist der Bildwert von f(xi) ähnlich oder gleich dem Erwartungswert μ1. Die Parameter σ1, σ2 bestimmen, wie schnell die Wahrscheinlichkeitsfunktionen für Werte, die entfernt von den Erwartungswerten liegen, gegen Null abfallen.
  • Bei der „Fuzzy Connectedness" Methode muss der Wert f(xi) durch den Mittelwert der Werte für c und d und der Betrag des Gradienten |∇⨍(xi)| durch die absolute Differenz der Inputwerte für c und d ersetzt werden:
    Figure 00210002
  • Während diese Gleichungen die Betrags- und Gradienteninformation unabhängig voneinander betrachten, sollte man vorteilhafterweise eine Wahrscheinlichkeitsfunktion erstellen, bei der die Betrags- und Gradienteninformation kombiniert werden. Eine Möglichkeit besteht darin g5(f(xi)) = 1 zu setzen, wenn f(xi) = μ1 und damit unabhängig von dem Gradientenbetrag ist. Nimmt man dabei an, dass die Wahrscheinlichkeitsfunktion durch eine lineare Funktion mit einer Steigung a, die vom Gradientenbetrag abhängt, beschrieben wird, mit
    Figure 00210003
    so ergibt sich:
    Figure 00220001
    wobei ω1 für |∇⨍(xi)| = 0 den Abstand beidseitig vom Erwartungswert μ1 angibt, bei dem die Wahrscheinlichkeitsfunktion auf Null abgefallen ist, und ω2 dem Gradientenbetrag |∇⨍(xi)| entspricht, für den die Wahrscheinlichkeitsfunktion im Abstand ω/2 von μ1 auf Null abgefallen ist. Diese Zusammenhänge werden in 2 veranschaulicht.
  • Die Wahrscheinlichkeitsfunktion g5 ergibt sich damit zu:
    Figure 00220002
  • Während die beschriebenen Wahrscheinlichkeitsfunktionen lediglich die bereitgestellten maskierten Bilddaten berücksichtigen, kann auch vorhandenes weitergehendes Wissen in den vorgestellten Methoden verarbeitet werden. So können bspw. Voxel in ummittelbarer Nachbarschaft zu Luftwegen als Wand der Luftwege aufgefasst werden, diesen Voxeln wird daher ein sehr geringer Gefäßwahrscheinlichkeitswert zugeordnet. Derartiges a priori Wissen kann in Gleichung (13) eingeführt werden, indem Inputwerte benutzt werden, die der kleinsten euklidischen Distanz zu den Luftwegestrukturen entsprechen und wobei μ1 = 0 und σ1 gleich einem relativ kleinen Wert gesetzt werden.
  • Es bestehen grundlegend zwei Möglichkeiten eines Nutzers in das vorliegende Segmentierungsverfahren einzugreifen. Zum Verständnis der ersten Möglichkeit sei zunächst nochmals daran erinnert, dass das Ergebnis der zweiten Segmentierung (Fuzzy Segmentierung) 105 im ersten Abschnitt zunächst die Wahrscheinlichkeit angibt, mit der ein Bildvoxel zu einer Gefäßstruktur gehört. Im zweiten Abschnitt erfolgt dann durch Vorgabe eines Schwellwertes eine binäre Klassifikation zur eindeutigen Zuordnung jedes Voxels zu Gefäßstrukturen bzw. zum Bildhintergrund. Dieser Schwellwert beeinflusst in erheblichem Maße die Sensitivität bzw. die Spezifität des dargestellten Segmentierungsverfahrens. Ein hoher Schwellwert, bei dem nur Voxel mit einer hohen Gefäßzugehörigkeitswahrscheinlichkeit berücksichtigt werden, führt zu einer Gefäßsegmentierung mit hoher Spezifität aber geringer Sensitivität. Auf der anderen Seite führt ein kleiner Schwellwert ggf. zu einer Übersegmentierung und damit zu einer hohen Sensitivität, aber auch zu einer geringen Spezifität der Segmentierung. Dieses Segmentierungsverhalten kann interaktiv nach einem ersten vollständigen Durchlauf des Verfahrens durch Vorgabe eines geänderten Schwellwertes zur binären Klassifizierung (Segmentierung) für Schritt 105 an die aktuellen Erfordernisse angepasst werden.
  • Die zweite Möglichkeit besteht darin, bei fehlenden Teilstrukturen des segmentierten Gefäßbaumes aufgrund ungenügender Saatpunktermittelung in Schritt 104, neue oder geänderte (bspw. durch Löschung) Saatpunkte manuell vorzugeben. Darüber hinaus besteht die Möglichkeit, dass bei Ausführung des Segmentierungsverfahrens in den zweiten segmentierten Daten auch die Gefäße umgebender Strukturen enthalten sind. In diesem Fall können weitere oder geänderte Saatpunkte manuell vorgegeben werden, die den Bildhintergrund, d. h. Nichtgefäßstrukturen, kennzeichnen. Dadurch kann bei Anwendung entsprechender Wahrscheinlichkeitsfunktionen, die Wahrscheinlichkeit bestimmt werden, die angibt, ob die Voxel zu anderen als den Gefäßstrukturen gehören. Insofern stehen die Saatpunkte der verschiedenen Klassen (Gefäßklasse, Hintergrundklasse, ...) miteinander im Wettbewerb um die Bildvoxel.
  • Die einfachste Möglichkeit eine Fuzzy Segmentierung zu realisieren ist für jede Objektklasse (Bildvordergrund bzw. Bildhintergrund) unabhängig die Wahrscheinlichkeitsverteilung zu bestimmen und jedes Voxel der Objektklasse mit dem höchsten Wahrscheinlichkeitswert zuzuordnen. In diesem Fall ist nur die Wahrscheinlichkeitsfunktion für die „Bildhintergrund Klasse" zu bestimmen, da die Gefäßwahrscheinlichkeitswerte der Voxel sich nicht durch zusätzliche Saatpunkte im Bildhintergrund verändern. Ein solches Vorgehen wird für Feinjustierungen des Segmentierungsergebnisses (d. h. der zweiten segmentierten Bilddaten) vorgeschlagen und kann auf Regionen beschränkt werden, die ursprünglich als Gefäße identifiziert wurden.
  • Die 3a–c zeigen die Segmentierungsergebnisse am Beispiel von unterschiedlichen, kontrasterhöhten CT-Scans des Brustkorbes eines Patienten. Das Segmentierungsverfahren wurde vorliegend vollautomatisiert durchgeführt. Dabei wurden die CT-Bilddaten zunächst mit einer entsprechenden Lungensegmentierung maskiert. Anschließend wurde eine schwellwertbasierte Segmentierung ausgeführt um zentrale Gefäßstrukturen in den maskierten Bilddaten zu identifizieren. Daraufhin wurde ein „Connected Component Labeling" Verfahren ausgeführt, und Gefäßstrukturen mit einem Volumen kleiner als vmin wurden gelöscht. Die verbleibenden Bilddaten wurden durch eine 3D euklidische Transformation transformiert, um in den lokalen Maxima des transformierten Bildes Saatpunkte zu identifizieren. Die identifizierten Saatpunkte wurden abhängig von ihrer physikalischen Position und den entsprechenden Distanzwerten geclustert. Die somit ermittelten Saatpunkte wurden in Schritt 105 als Startpunkte für eine „Fuzzy Connectedness"- oder „Fast Marching"-Segmentierung verwendet. Das Ergebnis, d. h. die ermittelten Wahrscheinlichkeitswerte oder dazu proportionale Werte, wurden schließlich in einem binären Segmen tierungsschritt mit verschiedenen Schwellwerten klassifiziert.
  • In den folgenden Ausführungsbeispielen (3a–c) wurde der Schwellwert für den Verfahrensschritt 103 im Bereich von [200, 500] HU vorgegeben, da sich hier zufrieden stellende erste Segmentierungsergebnisse eingestellt haben. Strukturkomponenten mit einem Volumen kleiner als vmin = 145,8 mm2 wurden für die Saatpunktbestimmung ignoriert. Zusätzlich wurde als Intervall für interessierende Distanzwerte das Intervall [√2, ∞] spezifiziert. Als Wahrscheinlichkeitsfunktion 106 wurde die vorstehend angegebene Funktion g1 gewählt. Als Erwartungswert μ1 (bspw. erwarteter Schwächungswert in Hountsfield Units) wurde der Mittelwert der Bildwerte der identifizierten Saatpositionen gewählt. Die Varianz wurde auf eine vorgegebenen Wert von σ2 1 = 2502 gesetzt. Allerdings ist die Wahl von σ1 nicht kritisch, da σ1 im Hinblick auf das Bildrauschen im interessierenden Objektbereich als Normalisierungskonstante aufgefasst werden kann. Schließlich wurden in Schritt 105 verschiedene Schwellwerte für die binäre Klassifizierung angewendet, um die in den Figuren gezeigten Gefäßsegmentierungen zu erhalten.
  • 3a–c zeigen jeweilige Segmentierungsergebnisse unter Verwendung eines „Fuzzy Connectedness" Algorithmus. Die verwendete Wahrscheinlichkeitsfunktion basiert auf den originalen CT-Bilddaten (Hountsfield Units (HU)) und der Wahrscheinlichkeitsfunktion g1. Die Ergebnisbilder unterscheiden sich aufgrund der Verwendung unterschiedlicher Schwellwerte bei der binären Klassifizierung in Schritt 105 des Verfahrens. Den dargestellten Segmentierungsergebnissen liegen folgende Schwellwerte zugrunde:
    • 3a: PGefäß (X) > 0.78,
    • 3b: PGefäß(X) > 0.38, und
    • 3c: PGefäß (X) > 0.04.
  • In jedem Ergebnisbild wurden nur die Voxel berücksichtigt, deren Gefäßzugehörigkeitswahrscheinlichkeit PGefäß größer als der angegebene Schwellwert ist. Dies führt, wie vorstehend erläutert, zu unterschiedlicher Sensitivität bzw. Spezifität der Segmentierung. Je kleiner der Schwellwert gewählt wurde, umso feinere Gefäßstrukturen wurden segmentiert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 5812691 [0009]
  • Zitierte Nicht-Patentliteratur
    • - A. P. Kiraly et al., „ANALYSIS OF ARTERIAL SUB-TREE AFFECTED BY PULMONARY EMBOLI" in Medical Imaging 2004, Image Processing, Proceedings of the SPIE, May 2004, vol. 5370, pp. 1720–1729 [0006]
    • - Thomas Bülow et al., „AUTOMATIC EXTRACTION OF THE PULMONARY ARTERY TREE FROM MULTI-SLICE CT-DATA", in Medical Imaging 2005: Physiology, Function, and Structure from Medical Images. Proceedings of the SPIE, Apr. 2005, vol. 5746, pp. 730–740 [0007]
    • - J. A. Sethian, „A FAST MARCHING LEVELSET METHOD FOR MONOTONICALLY ADVANCED FRONTS", Cambridge University Press, 1999 [0007]
    • - S. Eiho et al.,"BRANCH-BASED REGION GROWING METHOD FOR BLODD VESSEL SEGMENTATION", ISPRS Congress, ISPRS 2004, pp 796–801 [0007]
    • - J. K. Udupa, „FUZZY CONNECTEDNESS AND OBJECT DEFINITION: THEORY, ALGORITHMS, AND APPLICATIONS IN IMAGE SEGMENTATION" in Graph. Models Image Process., vol 58, no. 3, pp 246–261 [0009]

Claims (24)

  1. Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten, insbesondere zur Segmentierung von Gefäßstrukturen aus 3D-Bilddaten, mit folgenden Schritten, a. Bereitstellen der Bilddaten, b. schwellwertbasiertes erstes Segmentieren der Bilddaten zur Erzeugung erster segmentierter Bilddaten, c. Festlegen von einem oder mehreren Saatpunkten in den ersten segmentierten Bilddaten, d. ausgehend von den ermittelten Saatpunkten, saatpunktbasiertes zweites Segmentieren der Bilddaten zur Erzeugung zweiter segmentierter Bilddaten.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als bildgebende medizinische Modalität ein CT- oder ein MR-Gerät dient.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass durch ein CT-Gerät bereitgestellte Bilddaten auf einer Abtastung eines Patienten beruhen, dem vor der Abtastung ein Kontrastmittel injiziert wurde.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass vorverarbeitete Bilddaten, insbesondere durch Kantenhervorhebung und/oder Rauschunterdrückung und/oder Filterung und/oder morphologische Operationen bearbeitete Bilddaten, bereitgestellt werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass vor Verfahrensschritt b ein Maskieren der Bilddaten erfolgt, wobei die Bilddaten auf einen Teilbereich (ROI = Region Of Interest) der Bilddaten reduziert werden, insbesondere auf einen Teilbereich, in dem Bilddaten eines Organs enthalten sind.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Organ die Lunge eines Lebewesens ist.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass das Maskieren einen „Region Growing"-Prozess umfasst.
  8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass das Maskieren morphologische Datenoperationen umfasst.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass das erste Segmentieren mit Segmentierungsparametern erfolgt, die auf Basis der Bilddaten errechnet, oder interaktiv von einem Nutzer oder fix vorgegeben werden.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das erste Segmentieren mit Segmentierungsparametern erfolgt, die ein Segmentieren von in den Bilddaten abgebildeten Strukturen, insbesondere von in den Bilddaten abgebildeten Gefäßstrukturen, mit hoher Spezifität ermöglichen.
  11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass das erste Segmentieren einen Schritt umfasst, in dem segmentierte Strukturen, insbesondere Gefäßstrukturen, die ein vorgebbares Volumen vmin unterschreiten gelöscht werden.
  12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass das erste Segmentieren eine oder mehrere morphologische Datenoperationen umfasst.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass das Festlegen der ein oder mehreren Saatpunkte eine dreidimensionale Euklidische Distanz Transformation umfasst.
  14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass Saatpunkte durch lokale Maxima in Distanz transformierten Bilddaten bestimmt werden.
  15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass als Saatpunkte Voxel ausgewählt werden, die auf Mittellinien innerhalb segmentierter Strukturen, insbesondere auf Mittellinien innerhalb von segmentierten Gefäßen, liegen.
  16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass Saatpunkte gewählt werden, die bei in den ersten segmentierten Bilddaten abgebildeten segmentierten Gefäßbaumstrukturen nahe des Stammes der Gefäßbaumstrukturen liegen.
  17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass das zweite Segmentieren in zwei Abschnitten erfolgt, wobei im ersten Abschnitt für jedes Voxel der Bilddaten ein oder mehrere Werte ermittelt werden, die die Wahrscheinlichkeit angeben oder die als Wahrscheinlichkeit interpretierbar sind, dass ein Voxel zu einem der Saatpunkte und/oder einer einem Saatpunkt zugeordneten Struktur gehört, und im zweiten Abschnitt auf Basis der für die Bilddaten ermittelten Wahrscheinlichkeitswerte eine binäre Segmentierung der Bilddaten erfolgt.
  18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass im ersten Abschnitt ein „Fuzzy Connectedness"-Algorithmus ausgeführt wird.
  19. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass im ersten Abschnitt ein „Fast Marching"-Algorithmus ausgeführt wird.
  20. Verfahren nach einem der Ansprüche 1 bis 19, dadurch gekennzeichnet, dass die Verfahrensschritte a bis d automatisiert ausgeführt werden.
  21. Verfahren nach einem der Ansprüche 1 bis 20, dadurch gekennzeichnet, dass die Verfahrensschritte b bis d anschließend an Verfahrensschritt d erneut ausgeführt werden, wobei geänderte Segmentierungsparameter für Verfahrensschritt b, und/oder geänderte und/oder neue Saatpunkte für Verfahrensschritt c, und/oder geänderte Segmentierungsparameter für Verfahrensschritt d vorgegeben werden.
  22. Verfahren nach einem der Ansprüche 1 bis 20, dadurch gekennzeichnet, dass die Verfahrensschritte c und d anschließend an Verfahrensschritt d erneut ausgeführt werden, wobei geänderte und/oder neue Saatpunkte für Verfahrensschritt c, und/oder geänderte Segmentierungsparameter für Verfahrensschritt d vorgegeben werden.
  23. Verfahren nach einem der Ansprüche 1 bis 20, dadurch gekennzeichnet, dass der Verfahrensschritt d anschließend an Verfahrensschritt d erneut ausgeführt wird, wobei geänderte Segmentierungsparameter für Verfahrensschritt d vorgegeben werden.
  24. Mit zumindest einer bildgebenden Modalität verbindbare Vorrichtung zur Bildverarbeitung, mit mindestens einer Eingabe-, einer Ausgabe-, einer Speicher- und einer Prozessoreinheit, wobei Mittel, vorzugsweise Programm-Mittel, vorgesehen sind, die derart ausgebildet sind, dass die Verfahrensschritte gemäß mindestens einem der Ansprüche 1–23 ausführbar sind.
DE102008061170A 2008-01-11 2008-12-09 Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten sowie Vorrichtung zur Bildverarbeitung Withdrawn DE102008061170A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US2041308P 2008-01-11 2008-01-11
US61/020,413 2008-01-11

Publications (1)

Publication Number Publication Date
DE102008061170A1 true DE102008061170A1 (de) 2009-07-23

Family

ID=40786047

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008061170A Withdrawn DE102008061170A1 (de) 2008-01-11 2008-12-09 Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten sowie Vorrichtung zur Bildverarbeitung

Country Status (1)

Country Link
DE (1) DE102008061170A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113327225A (zh) * 2020-02-28 2021-08-31 西门子医疗有限公司 用于提供气道信息的方法
CN117974692A (zh) * 2024-03-29 2024-05-03 贵州毅丹恒瑞医药科技有限公司 一种基于区域生长的眼科医学影像处理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5812691A (en) 1995-02-24 1998-09-22 Udupa; Jayaram K. Extraction of fuzzy object information in multidimensional images for quantifying MS lesions of the brain

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5812691A (en) 1995-02-24 1998-09-22 Udupa; Jayaram K. Extraction of fuzzy object information in multidimensional images for quantifying MS lesions of the brain

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A. P. Kiraly et al., "ANALYSIS OF ARTERIAL SUB-TREE AFFECTED BY PULMONARY EMBOLI" in Medical Imaging 2004, Image Processing, Proceedings of the SPIE, May 2004, vol. 5370, pp. 1720-1729
J. A. Sethian, "A FAST MARCHING LEVELSET METHOD FOR MONOTONICALLY ADVANCED FRONTS", Cambridge University Press, 1999
J. K. Udupa, "FUZZY CONNECTEDNESS AND OBJECT DEFINITION: THEORY, ALGORITHMS, AND APPLICATIONS IN IMAGE SEGMENTATION" in Graph. Models Image Process., vol 58, no. 3, pp 246-261
S. Eiho et al.,"BRANCH-BASED REGION GROWING METHOD FOR BLODD VESSEL SEGMENTATION", ISPRS Congress, ISPRS 2004, pp 796-801
Thomas Bülow et al., "AUTOMATIC EXTRACTION OF THE PULMONARY ARTERY TREE FROM MULTI-SLICE CT-DATA", in Medical Imaging 2005: Physiology, Function, and Structure from Medical Images. Proceedings of the SPIE, Apr. 2005, vol. 5746, pp. 730-740

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113327225A (zh) * 2020-02-28 2021-08-31 西门子医疗有限公司 用于提供气道信息的方法
CN113327225B (zh) * 2020-02-28 2024-04-09 西门子医疗有限公司 用于提供气道信息的方法
CN117974692A (zh) * 2024-03-29 2024-05-03 贵州毅丹恒瑞医药科技有限公司 一种基于区域生长的眼科医学影像处理方法
CN117974692B (zh) * 2024-03-29 2024-06-07 贵州毅丹恒瑞医药科技有限公司 一种基于区域生长的眼科医学影像处理方法

Similar Documents

Publication Publication Date Title
DE102008023283B4 (de) Verfahren und System zur Segmentierung von schlauchförmigen Strukturen in 3D-Bildern
DE102008002912B4 (de) Vorrichtung und Verfahren zur Identifizierung von Okklusionen
DE19851597B4 (de) Verfahren und Gerät zur Erzeugung verbesserter Bilder von Kranzarterien
DE102011076233B4 (de) Verfahren und Computersystem zur Erkennung einer statistisch relevanten Normvariante der Gefaßstruktur eines Patienten mit Hilfe tomographischer Bilddatensatze
DE102006034358A1 (de) System und Verfahren zur Segmentierung der Koronararterie von Herz-CT-Volumen
EP2449528B1 (de) Wissensbasierte segmentierung schwächungsrelevanter regionen des kopfes
DE102004043694B4 (de) Verfahren zur Segmentierung anatomischer Strukturen aus 3D-Bilddaten unter Nutzung topologischer Information
DE102015212953A1 (de) Künstliche neuronale Netze zur Klassifizierung von medizinischen Bilddatensätzen
DE102007018763B4 (de) Verfahren zur Arterien-Venen-Bildseparation in Blutpoolkontrastmitteln
EP2263211B1 (de) Verfahren und vorrichtung zur segmentation einer läsion
DE102014213408B4 (de) Verfahren zur Ermittlung eines dreidimensionalen Modelldatensatzes eines wenigstens ein Gefäßsegment umfassenden Blutgefäßsystems
DE102021124341A1 (de) Künstliche- intelligenz- pipeline- datenverarbeitungssystem zur läsionserkennung
DE102006046285A1 (de) Verfahren zur Gefäßhervorhebung und Segmentierung in 3D Volumendaten
DE102009038436B4 (de) Verfahren zur Segmentierung eines Organs in Volumendatensätzen der Magnetresonanztomographie
DE102018214325A1 (de) Verfahren und Bereitstellungseinheit zum Bereitstellen eines virtuellen tomographischen Schlaganfall-Nachfolgeuntersuchungsbildes
DE112018005775T5 (de) Adaptive segmentierung von läsionen in medizinischen bildern
DE102013220018A1 (de) Berechnung eines Untersuchungsparameters
DE102010018261B4 (de) Verfahren und Computersystem zur automatischen Vektorisierung eines Gefäßbaumes
Viji et al. Performance evaluation of standard image segmentation methods and clustering algorithms for segmentation of MRI brain tumor images
DE102020211945A1 (de) Verfahren und Anordnung zur automatischen Lokalisierung von Organsegmenten in einem dreidimensionalen Bild
DE102010028382A1 (de) Verfahren und Computersystem zur Bearbeitung tomographischer Bilddaten aus einer Röntgen-CT-Untersuchung eines Untersuchungsobjektes
DE102008061170A1 (de) Verfahren zur Segmentierung von 3D-Bilddaten bildgebender medizinischer Modalitäten sowie Vorrichtung zur Bildverarbeitung
DE102015217948B4 (de) Verfahren zur Segmentierung eines Organs und/oder Organbereiches in Volumendatensätzen der Magnetresonanztomographie
DE112016005742T5 (de) Datenverarbeitungsverfahren für Computertomographie
DE102011006817B4 (de) Verfahren zur vollautomatischen Segmentierung eines Organs, insbesondere des Nierenparenchyms, aus Volumendatensätzen der medizinischen Bildgebung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20110701