DE102012107529A1 - Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes - Google Patents

Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes Download PDF

Info

Publication number
DE102012107529A1
DE102012107529A1 DE102012107529A DE102012107529A DE102012107529A1 DE 102012107529 A1 DE102012107529 A1 DE 102012107529A1 DE 102012107529 A DE102012107529 A DE 102012107529A DE 102012107529 A DE102012107529 A DE 102012107529A DE 102012107529 A1 DE102012107529 A1 DE 102012107529A1
Authority
DE
Germany
Prior art keywords
image
mesh
interest
volume
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012107529A
Other languages
English (en)
Inventor
Zhongmin Lin
Gopal B. Avinash
Patrick Michael Virtue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102012107529A1 publication Critical patent/DE102012107529A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Ein Verfahren zur Extraktion eines dreidimensionalen (3D) interessierenden Volumens aus einem dreidimensionalen (3D) Bilddatensatz umfasst das Zugreifen auf einen 3D-Bilddatensatz, der eine Vielzahl von Bildschichten umfasst, das Umschließen eines interessierenden 3D-Volumens in dem 3D-Bilddatensatz unter Verwendung eines 3D-Netzes, die automatische Extraktion des interessierenden 3D-Volumens basierend auf dem 3D-Netz, und die Generierung eines 3D-Bildes des extrahierten interessierenden 3D-Volumens. Auch ein Computer und ein nichtflüchtiges computerlesbares Medium werden hier beschrieben.

Description

  • HINTERGRUND DER ERFINDUNG
  • Der hier beschriebene Gegenstand bezieht sich allgemein auf die Verarbeitung von dreidimensionalen (3D) Bildgebungsdatensätzen, und genauer gesagt auf ein Verfahren und Gerät zum Navigieren, Segmentieren und Extrahieren eines 3D-Bilddatensatzes.
  • Automatische Segmentierungsverfahren werden üblicherweise verwendet, um Objekte in volumetrischen Bilddaten zu konturieren. Es sind verschiedene Verfahren bekannt, die sich für die 3D-Segmentierung eignen. Die meisten Segmentierungsverfahren beruhen auf der Verformung eines elastischen Modells zu einem Rand oder mehreren Rändern in den volumetrischen Bilddaten hin. Eine präzise Segmentierung von großen Mengen von Bildern gestaltet sich in einer klinischen Anwendung aufgrund der komplexen und vielfältigen Anatomie des Patienten, der Bildinhomogenität, des Partialvolumeneffekts und/oder durch Bewegung verursachter Bildartefakte oft schwierig. Folglich werden automatische Bildsegmentierungsalgorithmen typischerweise unter Anwendung manueller Bearbeitungstechniken angepasst, die von einem Bediener implementiert werden. Manuelle Bearbeitung wird typischerweise Schicht-für-Schicht und Pixel-für-Pixel durchgeführt, nachdem der automatische Segmentierungsalgorithmus abgeschlossen worden ist. Da ein 3D-Bilddatensatz Tausende von 2D-Schichten umfassen kann, ist eine vom Bediener manuell durchgeführte Bearbeitung oft zeitaufwendig.
  • Außerdem ist die manuelle Bearbeitung der Segmentierungsergebnisse oft schwierig, wenn die Segmentierungsergebnisse eine angemessene Präzision aufweisen müssen, um klinische Entscheidungsprozesse zu unterstützen. Weil die manuelle Bearbeitung der Segmentierungsergebnisse oft zeitaufwendig ist, sind medizinische Bildgebungsanwendungen, welche keine hochpräzisen automatischen Bildsegmentierungsalgorithmen umfassen, in einer klinischen Umgebung unter Umständen nicht von Nutzen.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • In einer Ausführungsform wird ein Verfahren zur Extraktion eines dreidimensionalen (3D) interessierenden Volumens aus einem dreidimensionalen (3D) Bilddatensatz geliefert. Das Verfahren umfasst den Zugriff auf einen 3D-Bilddatensatz, welcher eine Vielzahl von Bildschichten umfasst, das Umschließen eines interessierenden 3D-Volumens in dem 3D-Bilddatensatz unter Verwendung eines 3D-Netzes, die automatische Extraktion des interessierenden 3D-Volumens basierend auf dem 3D-Netz, und die Generierung eines 3D-Bildes des extrahierten interessierenden 3D-Volumens. Außerdem werden hier ein Computer und ein nichtflüchtiges computerlesbares Medium beschrieben.
  • In einer anderen Ausführungsform wird ein System zur Extraktion eines dreidimensionalen (3D) interessierenden Volumens aus einem dreidimensionalen (3D) Bild geliefert. Das System umfasst eine Benutzerschnittstelle und einen Prozessor, der an die Benutzerschnittstelle gekoppelt ist. Der Prozessor ist so konfiguriert, dass er auf einen 3D-Bilddatensatz zugreift, der eine Vielzahl von Bildschichten umfasst, ein interessierendes 3D-Volumen in dem 3D-Bilddatensatz unter Verwendung eines 3D-Netzes umschließt, das interessierende 3D-Volumen basierend auf dem 3D-Netz automatisch extrahiert und ein 3D-Bild des extrahierten interessierenden 3D-Volumens generiert.
  • In einer weiteren Ausführungsform wird ein nichtflüchtiges computerlesbares Medium geliefert. Das computerlesbare Medium ist so programmiert, dass es den Computer anweist, auf einen 3D-Bilddatensatz zuzugreifen, der eine Vielzahl von Bildschichten umfasst, ein interessierendes 3D-Volumen in dem 3D-Bilddatensatz unter Verwendung eines 3D-Netzes zu umschließen, das interessierende 3D-Volumen basierend auf dem 3D-Netz automatisch zu extrahieren und ein 3D-Bild des extrahierten interessierenden 3D-Volumens zu generieren.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein vereinfachtes Blockdiagramm eines exemplarischen Bildgebungssystems, das gemäß verschiedenen Ausführungsformen gebildet wird.
  • 2 ist ein Flussdiagramm, welches ein exemplarisches Verfahren zur Navigation innerhalb eines dreidimensionalen (3D) Bildes gemäß verschiedenen Ausführungsformen illustriert.
  • 3 ist ein exemplarisches 3D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 4 ist ein exemplarisches 2D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 5 ist eine sagittale Ansicht eines Abschnittes des 3D-Bildes, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 6 ist eine koronale Ansicht eines Abschnittes des 3D-Bildes, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 7 ist eine axiale Ansicht eines Abschnittes des 3D-Bildes, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 8 ist ein Flussdiagramm, welches ein exemplarisches Verfahren zur Segmentierung eines 3D-Bildes gemäß verschiedenen Ausführungsformen illustriert.
  • 9 ist ein weiteres exemplarisches 3D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 10 ist ein weiteres exemplarisches 2D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 11 ist ein Flussdiagramm, welches ein exemplarisches Verfahren zur Bearbeitung eines 3D-Oberflächennetzes gemäß verschiedenen Ausführungsformen illustriert.
  • 12 ist ein weiteres exemplarisches 2D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 13 ist ein weiteres exemplarisches 2D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 14 ist ein weiteres exemplarisches 2D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 15 ist eine Illustration eines exemplarischen Netzes, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 16 ist ein weiteres exemplarisches 3D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 17 ist ein weiteres exemplarisches 3D-Bild, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 18 ist ein Flussdiagramm, das ein exemplarisches Verfahren zur Extraktion eines 3D-Bildes aus einem 3D-Bilddatensatz gemäß verschiedenen Ausführungsformen illustriert.
  • 19 ist ein exemplarisches Modell, welches das Verfahren illustriert, das in 18 gezeigt wird.
  • 20 illustriert ein exemplarisches Oberflächennetz, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 21 ist ein Bild eines Organs, das unter Verwendung des Oberflächennetzes generiert werden kann, das in 20 gezeigt wird.
  • 22 ist ein 2D-Bild eines Abschnittes eines Organs und eines exemplarischen Oberflächennetzes, das gemäß verschiedenen Ausführungsformen generiert werden kann.
  • 23 ist ein Bild einer 2D-Schicht, welches unter Verwendung des Oberflächennetzes extrahiert werden kann, das in 22 gezeigt wird.
  • 24 ist ein exemplarisches Bildgebungssystem, das gemäß verschiedenen Ausführungsformen gebildet wird.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Ausführungsformen der Erfindung können besser nachvollzogen werden, wenn sie im Zusammenhang mit den beigefügten Zeichnungen gelesen werden. Die Funktionsblocks geben die Aufteilung zwischen den Hardwareschaltungen nicht zwingend in demselben Maße wider, in welchem die Diagramme der Funktionsblocks der verschiedenen Ausführungsformen in den Figuren illustriert werden. So können beispielsweise einer oder mehrere der Funktionsblocks (z. B. Prozessoren, Regler oder Datenspeicher) in einem einzigen Hardwarebauteil (z. B. einem Universal-Signalprozessor oder RAM, Festplatte, o. ä.) oder in mehreren Hardwareteilen implementiert werden. Ebenso kann es sich bei den Programmen um eigenständige Programme handeln, sie können als Unterprogramme in einem Betriebssystem integriert sein, es kann sich um Funktionen in einem installierten Softwarepaket handeln, u. ä. Es sei darauf hingewiesen, dass die verschiedenen Ausführungsformen nicht auf die Anordnungen und Instrumentenausstattung beschränkt sind, die in den Zeichnungen gezeigt werden.
  • So, wie die Begriffe ”Element” oder ”Schritt”, die im Singular aufgeführt werden und denen das Wort ”ein” oder ”eine” vorangestellt wird, hier verwendet werden, sollen sie nicht dahingehend aufgefasst werden, dass sie eine Mehrzahl dieser Elemente oder Schritte ausschließen, außer solch eine Einschränkung wird explizit festgestellt. Ferner sollen Bezugnahmen auf ”eine Ausführungsform” nicht dahingehend interpretiert werden, dass sie das Vorhandensein von zusätzlichen Ausführungsformen ausschließen, welche die aufgeführten Merkmale ebenfalls umfassen. Sofern nicht explizit anderweitig festgestellt, können außerdem Ausführungsformen ein Element oder eine Vielzahl von Elementen mit einer bestimmten Eigenschaft ”aufweisen” oder ”haben” und auch zusätzliche solche Elemente umfassen, denen die fragliche Eigenschaft fehlt.
  • Verschiedene Ausführungsformen liefern Systeme und Verfahren zum Navigieren innerhalb eines dreidimensionalen (3D) Bildes, ein Verfahren zur Generierung eines 3D-Netzes sowie Verfahren zur Extraktion eines interessierenden 3D-Volumens. Insbesondere greifen verschiedene Ausführungsformen auf einen 3D-Bilddatensatz zu, generieren unter Verwendung des 3D-Bilddatensatzes ein 3D-Netz, das einem 3D-Segmentierungsergebnis entspricht, zeigen ein 3D-Oberflächenrendering des 3D-Oberflächennetzes an und ermöglichen es einem Bediener, innerhalb des 3D-Bildes basierend auf einer von einem Benutzer empfangenen manuellen Eingabe zu navigieren, welche auf dem gerenderten 3D-Netz angezeigt wird. Somit besteht ein technischer Effekt, der durch die Ausübung der verschiedenen Ausführungsformen erzielt wird, in der Reduzierung der Zeit, die für das Rendern, die Segmentierung und/oder Extraktion eines 3D-Bildes aufgewendet wird.
  • 1 ist ein vereinfachtes Blockdiagramm eines exemplarischen Bildgebungssystems 10, das gemäß verschiedenen Ausführungsformen gebildet wird. In der exemplarischen Ausführungsform ist das Bildgebungssystem 10 ein MRI-System. Beim Betrieb ist das System 10 so konfiguriert, dass es eine Grundgesamtheit von Spins in einem Objekt 12 induziert, um einen Satz von Nuklearmagnetresonanz(NMR)-Signalen zu erzeugen, die einen dreidimensionalen (3D) Bilddatensatz 14 zu mindestens einem Abschnitt des Objekts 12 darstellen. Das Bildgebungssystem 10 umfasst auch einen Computer 20, der den 3D-Bilddatensatz 14 empfängt. Der Computer 20 verarbeitet den 3D-Bilddatensatz 14, um ein 3D-Bild 22 eines Bereichs von Interesse des Objekts 12 zu rekonstruieren. In verschiedenen Ausführungsformen kann der Computer 20 ein 3D-Bildnavigationsmodul 30 umfassen, das so programmiert ist, dass es einem Bediener ermöglicht, innerhalb des 3D-Bildes 22 basierend auf einer manuellen Eingabe zu navigieren, welche von einem Bediener empfangen wird. Der Computer 20 kann auch ein Segmentierungsmodul 32 umfassen, das so programmiert ist, dass es den 3D-Bilddatensatz 14 segmentiert, um ein segmentiertes 3D-Bild 22 zu generieren. Der Computer 20 kann ferner ein Objektextraktionsmodul 34 umfassen, das so programmiert ist, dass es ein 3D-Bild eines exemplarischen Objekts oder Organs (nicht gezeigt) aus dem 3D-Bilddatensatz 14 extrahiert. Es sei darauf hingewiesen, dass die Module 30, 32, und 34 in Hardware, Software oder einer Kombination von diesen implementiert werden können. Beispielsweise können die Module 30, 32, und 34 unter Verwendung von physischen nichtflüchtigen computerlesbaren Medien implementiert oder ausgeführt werden.
  • 2 ist ein Flussdiagramm eines exemplarischen Verfahrens zur Navigation innerhalb eines 3D-Bildes unter Verwendung eines Bildgebungssystems, wie beispielsweise des Bildgebungssystems 10, das in 1 gezeigt wird. In der exemplarischen Ausführungsform wird die Bildnavigation durch das 3D-Bildnavigationsmodul 30 basierend auf einer manuellen Eingabe, die von einem Bediener empfangen wird, ausgeführt. Es sei jedoch darauf hingewiesen, dass die verschiedenen Ausführungsformen der Navigation innerhalb des 3D-Bildes unter Verwendung eines beliebigen Bildgebungssystems implementiert werden können und dass es sich beim Bildgebungssystem 10, welches in 1 gezeigt wird, um eine Ausführungsform solch eines exemplarischen Bildgebungssystems handelt. Das Verfahren 100 kann als Befehlssatz ausgeführt werden, der beispielsweise im Computer 20 und/oder dem Navigationsmodul 30 gespeichert ist.
  • Bei 102 wird eine Bildgebungsabtastung des Objekts 12 durchgeführt, um den Rohbilddatensatz 14 zu generieren, der hier auch als volumetrischer 3D-Datensatz bezeichnet wird. Genauer gesagt führt das Bildgebungssystem 10 eine Abtastung aus, um NMR-Signale zu generieren. In der exemplarischen Ausführungsform ist das Bildgebungssystem 10 so konfiguriert, dass es eine Abtastung einer interessierenden Region ausführt, die beispielsweise das Hirn umfasst. Folglich ist der 3D-Bilddatensatz 14 ein Satz von 3D-Daten, die von drei orthogonalen Achsen repräsentiert werden und die während eines zuvor bestimmten Zeitraums vom Gehirn und mindestens einigen das Gehirn umgebenden Bereichen erfasst wurden. Der 3D-Bilddatensatz 14 stellt die NMR-Signale der interessierenden Region mitsamt dem Gehirn dar. Es sei darauf hingewiesen, dass obwohl verschiedene Ausführungsformen in Bezug auf die Abbildung eines Gehirns beschrieben werden, die verschiedenen Ausführungsformen auch benutzt werden können, um andere Organe abzubilden, und das Gehirn ein Beispiel für solch ein Organ darstellt.
  • Bei 104 wird ein Segmentierungsalgorithmus auf den 3D-Bilddatensatz 14 angewendet, um Bilddaten, die zum Gehirn gehören, von Bilddaten zu trennen, die von anderen anatomischen Strukturen stammen. Beim Betrieb ist der Segmentierungsalgorithmus so konfiguriert, dass er interessierende Objekte, wie beispielsweise das Gehirn, lokalisiert und die Bilddaten zum Gehirn von den Bilddaten zu den umgebenden Objekten von weniger oder keinem Interesse (z. B. geringerer klinischer Bedeutung) trennt.
  • Beim Segmentierungsalgorithmus wird ein Prinzip angewendet, bei dem allgemein angenommen wird, dass die das Gehirn umgebenden Knochen und Fluide sowie andere anatomische Merkmale vom Gehirn unterschieden werden können, indem die Dichte jedes Voxels in den Bilddaten bestimmt wird. Die Dichte stellt im Allgemeinen den Intensitätswert des Voxels dar. Basierend auf den Dichtewerten von jedem der Voxels kann das Gehirn von den anderen anatomischen Teilen unterschieden werden. Folglich verwendet der Segmentierungsalgorithmus bei 104 ein Oberflächennetz (im Folgenden genauer diskutiert), um den Dichtewert für jedes Voxel in dem Bilddatensatz 14 automatisch mit einem zuvor festgelegt Dichtewert zu vergleichen, was beispielsweise unter Anwendung eines Thresholding-Verfahrens geschehen kann. In der exemplarischen Ausführungsform kann es sich bei dem zuvor festgelegten Dichtewert um einen Bereich von zuvor festgelegten Dichtewerten handeln. Der zuvor festgelegte Dichtewertbereich kann basierend auf a-priori-Informationen zum Gehirn automatisch eingestellt werden. Optional kann der zuvor festgelegte Bereich von einem Bediener manuell eingegeben werden. In einer Ausführungsform wird, sofern der Dichtewert eines Voxels sich innerhalb des zuvor festgelegten Bereichs befindet, das Voxel als zum Gehirn gehörend klassifiziert. Andernfalls wird das Voxel als nicht zum Gehirn gehörend klassifiziert. Es sei darauf hingewiesen, dass der Segmentierungsalgorithmus auch zusammen mit anderen Segmentierungstechniken verwendet werden kann, um das Gehirn zu identifizieren. Zusätzlich sei hier betont, dass andere geeignete Segmentierungsalgorithmen verwendet werden können.
  • Folglich werden bei 104 die Bilddaten in dem Bilddatensatz 14 zum Gehirn, beispielsweise Voxelinformationen, welche unter Verwendung des Segmentierungsalgorithmus ermittelt worden sind, zur Generierung eines Datensatzes verwendet, welcher Voxelinformationen umfasst, die das Gehirn darstellen. Durch die Trennung der Voxelinformationen mittels der Entfernung der nicht interessierenden Daten (z. B. im Wesentlichen allem, das außerhalb des Gehirns liegt) vom ursprünglichen Bilddatensatz 14 wird eine Reduktion der Anzahl der für die Bearbeitung verbleibenden Voxels ermöglicht. In der exemplarischen Ausführungsform wird die bei 104 beschriebene Segmentierung unter Verwendung eines 3D-Netzes 214 (in 57 gezeigt) implementiert. Bei dem 3D-Netz 214 kann es sich um einen Seed-Algorithmus oder einen anderen geeigneten Algorithmus handeln.
  • Bei 106 werden die segmentierten Informationen zum Gehirn, die bei 104 identifiziert worden sind, zur Generierung und Anzeige eines 3D-Bildes des Gehirns verwendet. Beispielsweise illustriert 3 ein exemplarisches 3D-Oberflächenrendering 200 eines Gehirns 202, das unter Verwendung der bei 104 erfassten Informationen generiert und angezeigt werden kann. Zusätzlich kann eine Vielzahl von zweidimensionalen Bildern mitsamt dem 3D-Netz 214 gleichzeitig mit dem 3D-Bild 200 angezeigt werden. Beispielsweise illustriert 4 ein exemplarisches zweidimensionales (2D) Bild 204 des Gehirns 202, das bei 106 generiert und angezeigt werden kann. Es sei darauf hingewiesen, dass obwohl es sich bei 4 um eine sagittale Ansicht des Gehirns 202 handelt, auch eine koronale und/oder axiale Ansicht des Gehirns 202 generiert und dem Bediener gleichzeitig mit dem 3D-Bild 200 des Gehirns 202 angezeigt werden kann. Beispielsweise illustriert 5 eine Seitenansicht des 3D-Netzes 214, 6 illustriert eine Frontansicht des 3D-Netzes 214, und 7 illustriert eine Unteransicht des 3D-Netzes 214.
  • Beim Betrieb ist das 3D-Netz 214 so konfiguriert, dass es das Gehirn 202 automatisch einkapselt, so dass das Gehirn 202, oder ein beliebiges anderes ausgewähltes Organ, Gewebe oder ein Knochen vollständig vom Netz 214 umschlossen wird. Genauer gesagt ist das 3D-Netz 214 so konfiguriert, dass es das Gehirn 202 automatisch von umgebenden Geweben, Fluiden und/oder Knochen segmentiert.
  • In der exemplarischen Ausführungsform wird das Netz 214 durch eine Vielzahl von Scheitelpunkten oder Netzpunkten 220 definiert. Genauer gesagt stellt jeder der Netzpunkte 220 eine andere Koordinate im 3D-Raum dar. Beim Betrieb kann das Netz 214 verwendet werden, um es einem Bediener zu ermöglichen, die Ergebnisse der automatischen Segmentierung, welche bei 104 ausgeführt wird, visuell nachzuvollziehen, um zu bestimmen, ob das Netz 214 die interessierenden Bereiche vollständig einkapselt oder Bereiche umfasst, die nicht von Interesse sind.
  • Was weiterhin 2 anbelangt, so kann bei 108 das 3D-Netz 214 verwendet werden, um basierend auf einer von einem Benutzer empfangenen manuellen Eingabe, welche auf dem gerenderten 3D-Netz 214 gezeigt wird, innerhalb des 3D-Bildes 202 zu navigieren. Um manuell innerhalb des 3D-Bildes 202 zu navigieren, kann der Bediener das 3D-Bild auf drei Achsen rotieren, um es in eine vom Benutzer ausgewählte Ausrichtung zu bringen, wie beispielsweise die Ausrichtung, die in 3 gezeigt wird. Genauer gesagt kann ein Bediener einen Cursor an einer Stelle positionieren, an der die Projektion des Cursors auf der 3D-Oberfläche des Gehirns 230 entspricht. Es werden drei Bilder angezeigt, die drei orthogonale Schichten darstellen, welche Punkt 230 umfassen. Ein Beispiel für solch eine Schicht wird als die sagittale Schicht 204 dargestellt, die in 4 gezeigt wird, wobei die entsprechende Position von 230 sich in der sagittalen Ansicht am Frontallappen befindet. Es wird deutlich, dass in dieser Position der vordere Teil des Gehirns vom Segmentierungsnetz geschnitten wird. Optional können die drei angezeigten orthogonalen Schichten gleichzeitig mit der Bewegung des Cursors 230 angezeigt werden. Beispielsweise werden, wenn der Bediener die Position des Cursors 230 auf dem 3D-Bild 200 verändert, die drei orthogonalen Schichten automatisch in Echtzeit mit der Bewegung des Cursors 230 angezeigt.
  • Somit kann der Bediener den Cursor 230 zu anderen interessierenden Bereichen auf dem 3D-Bild 202 bewegen und gleichzeitig die 2D-Bilder der drei orthogonalen Schichten betrachten, die durch die Position des Cursors 230 dargestellt werden. Auf diese Weise kann der Bediener schnell und einfach interessierende Bereiche identifizieren und gleichzeitig bestimmen, ob das Netz 214 sich an einer gewünschten Stelle befindet, indem er die 2D-Bilder 204 betrachtet, welche eine visuelle Abbildung des Netzes 214 an der von dem Cursor 230 angegebenen Stelle umfassen.
  • In einer anderen Ausführungsform kann der Bediener die Position des Cursors 230 auf einem beliebigen der 2D-Bilder verändern. Auch hier werden, sobald der Cursor 230 an einem ausgewählten Punkt auf einem 2D-Bild, wie beispielsweise dem 2D-Bild 204, positioniert wird, das 3D-Bild 202 und die übrigen 2D-Bilder, welche durch die Position des Cursors 230 dargestellt werden, automatisch aktualisiert und angezeigt.
  • Somit wird ein Bediener durch die verschiedenen hier beschriebenen Ausführungsformen in die Lage versetzt, mindestens einen Punkt auf dem 3D-gerenderten Netz 214 oder auf dem 3D-Bild 202 manuell zu selektieren, wobei gleichzeitig drei orthogonale Schichten angezeigt werden, welche 3D-Netzpunkte 220 umfassen, die basierend auf dem ausgewählten Punkt, welcher der 3D-Position und der vom Benutzer ausgewählten Ausrichtung entspricht, über die drei orthogonalen Schichten gelegt werden. Außerdem können die angezeigten Bilder verwendet werden, um es einem Bediener zu erlauben, manuell interessierende Bereiche, die sich außerhalb des Netzes 214 befinden, und/oder nicht interessierende Bereiche zu lokalisieren, die sich innerhalb des Netzes 214 befinden.
  • 8 ist ein Flussdiagramm eines exemplarischen Verfahrens 300 zur Segmentierung eines 3D-Bildes unter Verwendung des Bildgebungssystems 10, welches in 1 gezeigt wird. In der exemplarischen Ausführungsform wird die Bildsegmentierung durch das 3D-Bild-Segmentierungsmodul 32 basierend auf einer manuellen Eingabe ausgeführt, die von einem Bediener empfangen wird. Allerdings es sei darauf hingewiesen, dass die verschiedenen Verfahren zur Segmentierung des 3D-Bildes unter Verwendung eines beliebigen Bildgebungssystems implementiert werden können und dass das Bildgebungssystem 10, welches in 1 gezeigt wird, eine Ausführungsform solch eines exemplarischen Bildgebungssystems darstellt. Das Verfahren 300 kann ausgeführt werden als ein Befehlssatz, der beispielsweise auf dem Computer 20 und/oder dem Segmentierungsmodul 30 gespeichert wird.
  • Bei 302 wird, ähnlich wie bei 102, eine Bildgebungsabtastung des Objekts 12 ausgeführt, um den Rohbilddatensatz 14 zu generieren. Wie oben diskutiert, handelt es sich bei dem Bilddatensatz 14 in der exemplarischen Ausführungsform um einen volumetrischen 3D-Datensatz.
  • Bei 304 wird, ähnlich wie bei 104, ein Segmentierungsalgorithmus automatisch an dem 3D-Bilddatensatz 14 ausgeführt, um die zum Gehirn gehörenden Bilddaten von den Bilddaten zu trennen, die zu anderen anatomischen Strukturen gehören. Beim Betrieb ist der Segmentierungsalgorithmus so konfiguriert, dass er interessierende Objekte, wie beispielsweise das Gehirn, lokalisiert und die Bilddaten des Gehirns von Bilddaten der umgebenden Objekte, welche von weniger oder keinem Interesse sind, trennt. Obwohl verschiedene Ausführungsformen in Bezug auf die Abbildung des Gehirns beschrieben werden, können also andere interessierende Organe wie hier beschrieben abgebildet und segmentiert werden. In der exemplarischen Ausführungsform verwendet der Segmentierungsalgorithmus ein Oberflächennetz, wie beispielsweise das Netz 214, um den Dichtewert für jedes Voxel in dem Bilddatensatz 14 automatisch mit einem zuvor festgelegten Dichtewert zu vergleichen, beispielsweise indem ein Thresholding-Verfahren angewendet wird. Zusätzlich sei darauf hingewiesen, dass andere geeignete Segmentierungsalgorithmen verwendet werden können.
  • Bei 306 werden die segmentierten Informationen zum Gehirn, welche bei 304 identifiziert worden sind, verwendet, um ein 3D-Bild des Gehirns, beispielsweise das 3D-Oberflächenrendering 200 des Gehirns 202, welches in 3 gezeigt wird, zu generieren und anzuzeigen. Zusätzlich können drei Bilder generiert werden, die drei verschiedene orthogonale Schichten darstellen. Beispielsweise illustriert 4 ein zweidimensionales (2D) Bild 204 des Gehirns 202, das bei 306 generiert werden kann. Es sei erneut darauf hingewiesen, dass obwohl es sich bei 4 um eine sagittale Ansicht des Gehirns 202 handelt, auch eine koronale und/oder axiale Ansicht des Gehirns 202 generiert und dem Bediener gleichzeitig mit dem 3D-Bild 200 des Gehirns 202 angezeigt werden kann. Beispielsweise illustriert 5 eine Seitenansicht des 3D-Netzes 214, 6 illustriert die Frontansicht des 3D-Netzes 202 und 7 illustriert die Draufsicht des 3D-Netzes 202.
  • Beim Betrieb ist das 3D-Netz 214 so konfiguriert, dass es das Gehirn 202, wie beispielsweise das Gehirn 202, oder ein beliebiges anderes ausgewähltes Organ, Gewebe oder einen Knochen, automatisch einkapselt, so dass diese vollständig vom Netz 214 umschlossen werden. Genauer gesagt ist das 3D-Netz 214 so konfiguriert, dass es das Gehirn 202 automatisch vom umgebenden Gewebe, Fluiden und oder Knochen segmentiert.
  • Was wiederum 57 anbelangt, so wird das Netz 214 durch die Vielzahl von Netzpunkten 220 definiert, wobei jeder der Netzpunkte 220 eine andere Koordinate im 3D-Raum darstellt. In der exemplarischen Ausführungsform kann mindestens einigen der Netzpunkte eine Farbe zugewiesen werden, die einen Intensitätswert beziehungsweise die Helligkeit des Voxels an der entsprechenden 3D-Koordinate abbildet, die durch den Punkt dargestellt wird. Die Farbe kann in Form von Grauskalenwerten basierend auf dem Intensitätswert dargestellt werden. Optional kann die Farbe mit unterschiedlichen Farben, z. B., Rot, Blau, Grün etc., dargestellt werden. Beispielsweise kann ein Punkt 222 unter Verwendung einer hellgrauen Farbe dargestellt werden, wodurch angezeigt wird, dass der Intensitätswert an dieser Stelle relativ niedrig ist. Außerdem kann ein Punkt 224 in einer schwarzen Farbe dargestellt werden, wodurch angezeigt wird, dass der Intensitätswert an dieser Stelle relativ hoch ist. Die Farbe der Netzpunkte 220 ermöglichen es einem Bediener, auf visuellem Wege zu bestimmen, ob das Netz 214 das interessierende Objekt, z. B. das Gehirn 202, vollständig eingekapselt hat. Beim Betrieb kann das farbige Netz 214 verwendet werden, um es einem Bediener zu ermöglichen, die Ergebnisse der automatischen Segmentierung, welche bei 104 ausgeführt wird, auf visuellem Wege nachzuvollziehen, um zu bestimmen, ob das Netz 214 die interessierenden Bereiche vollständig einkapselt oder Bereiche umfasst, die nicht von Interesse sind.
  • Wiederum Bezug nehmend auf 4, kapselt in der exemplarischen Ausführungsform das Netz 214 das Gehirn 202 nicht wie gewünscht vollständig ein. Folglich ist das Netz 214 so positioniert, dass mindestens ein Abschnitt des Gehirns, welcher durch einen Punkt 230 angegeben wird, mindestens teilweise innerhalb des Gehirns 202 [liegt]. Wiederum Bezug nehmend auf 3, stellen beispielsweise die hell schattierten Bereiche, wie beispielsweise Bereich 210, Bereiche außerhalb des Gehirns 202 dar. Zusätzlich stellen die dunkler schattierten Bereiche, wie beispielsweise Bereich 212, das Gehirn 202 selbst dar.
  • Wiederum Bezug nehmend auf 8, kann bei 308 das 3D-Netz 214 verwendet werden, um Bereiche des ausgewählten Organs zu identifizieren, die sich nicht innerhalb des 3D-Netzes 214 befinden. Um Bereiche zu identifizieren, die sich nicht innerhalb des Netzes 214 befinden, kann der Bediener das 3D-Bild manuell in drei Achsen in eine vom Benutzer ausgewählte Ausrichtung, beispielsweise die in 3 gezeigte Ausrichtung, rotieren. Genauer gesagt kann ein Bediener den Cursor 230 zur Identifikation der interessierenden Bereiche auf dem 3D-Bild 200 positionieren. Sobald der Cursor 230 an dem gewünscht Punkt auf dem 3D-Bild positioniert worden ist, kann der Bediener den ausgewählten Punkt manuell anklicken, indem er beispielsweise eine Maus benutzt. Sobald ein Punkt ausgewählt worden ist, werden drei orthogonale Schichten angezeigt, welche die 3D-Netzpunkte 220 umfassen, die über die drei orthogonalen Schichten gelegt sind. Ein Beispiel für solch eine Schicht wird in Form der sagittalen Schicht 204 gezeigt, die in 4 dargestellt wird. Optional können die drei angezeigten orthogonalen Schichten gleichzeitig mit der Bewegung des Cursors 230 angezeigt werden. Beispielsweise können die drei orthogonalen Schichten automatisch in Echtzeit mit der Bewegung des Cursors 230 angezeigt werden, während der Bediener die Position des Cursors 230 auf dem 3D-Bild 200 verändert.
  • Somit kann der Bediener die Position des Cursors 230 zu unterschiedlichen interessierenden Bereichen auf dem 3D-Bild 202 bewegen und gleichzeitig die 2D-Bilder der drei orthogonalen Schichten betrachten, die durch die Position des Cursors 230 dargestellt werden. Auf diese Weise kann der Bediener interessierende Bereiche schnell und einfach identifizieren und gleichzeitig bestimmen, ob sich das Netz 214 an einer gewünschten Stelle befindet, indem er die 2D-Bilder 204 betrachtet, welche eine visuelle Abbildung des Netzes 214 an der Stelle umfassen, die durch den Cursor 230 angezeigt wird.
  • In einer anderen Ausführungsform kann der Bediener den Cursor 230 auf ein beliebiges der 2D-Bilder bewegen. Auch hier werden, sobald der Cursor 230 an einem ausgewählten Punkt auf einem 2D-Bild 204 positioniert wird, das 3D-Bild 202 und die übrigen 2D-Bilder, die durch die Position des Cursors 230 dargestellt werden, automatisch aktualisiert und angezeigt.
  • Wiederum Bezug nehmend auf 8, kann bei 310 die Größe oder Position des Netzes 214 basierend auf der bei 308 durchgeführten Bestimmung manuell angepasst werden. Genauer gesagt kann das Netz 214 so angepasst werden, dass unerwünschte Bereiche, die aktuell vom Netz 214 eingekapselt werden, entfernt werden beziehungsweise gewünschte Bereiche, die aktuell nicht vom Netz 214 eingekapselt werden, hinzugefügt werden. Wiederum Bezug nehmend auf 4, kann das Netz 214 beispielsweise so angepasst werden, dass der hell schattierte Bereich 210, der einen Bereich außerhalb des Gehirns 202 darstellt, aus den Segmentierungsinformationen entfernt wird.
  • Um die Größe des Netzes 214 zu verändern, und somit unerwünschte Bereiche zu entfernen beziehungsweise gewünschte Bereiche hinzuzufügen, kann der Bediener den Cursor 230 an einen beliebigen Punkt auf einem beliebigen der 2D-Bilder positionieren, wie beispielsweise Punkt 242, welcher auf dem in 4 dargestellten Bild gezeigt wird. Beispielsweise kann der Bediener den Cursor in einer Ausführungsform manuell am Punkt 230 positionieren, wie in 3 gezeigt. Die entsprechende Position von 230 in der sagittalen Ansicht wird in 4 gezeigt. Es wird deutlich, dass einige Gehirnbereiche nahe dem Punkt 230 vom [Segmentierungsnetz] abgeschnitten werden. Der Bediener kann manuell einen Punkt 242 auf oder nahe Punkt 230 anklicken, bis zu welchem hin sich das Segmentierungsnetz erstrecken soll. Die Größe des Netzes 214 wird automatisch in drei Dimensionen angepasst, wobei Punkt 242 als Referenz verwendet wird. Außerdem wird ein überarbeitetes 3D-Bild und ein Satz von überarbeiteten 2D-Bildern automatisch angezeigt. Beispielsweise stellt 9 ein überarbeitetes 3D-Bild 250 dar, welches die Ergebnisse der 3D-Segmentierung basierend auf dem in seiner Größe veränderten Netz 214 zeigt. Außerdem ist 10 ein 2D-Bild 252, welches basierend auf dem in seiner Größe veränderten Netz 214 generiert und angezeigt wird, welches das Netz 214 umfasst, das in der überarbeiteten Position lokalisiert ist, welche durch die Cursorposition 230 angegeben wird. Es sei erneut darauf hingewiesen, dass obwohl in der exemplarischen Ausführungsform nur die sagittale Ansicht des in seiner Größe veränderten Netzes 214 gezeigt wird, eine koronale Ansicht oder axiale Ansicht des überarbeiteten Netzes 214 gleichzeitig mit der sagittalen Ansicht, welche als Bild 252 gezeigt wird, angezeigt werden kann.
  • In der exemplarischen Ausführungsform kann die Größe des Netzes 214 bei 310 unter Verwendung eines geometriebasierenden iterativen Bildbearbeitungsverfahrens (GIMMIE) verändert werden. Beim Betrieb wird es einem Bediener durch GIMMIE ermöglicht, ein 3D-Bild des Organs von Interesse mitsamt dem über das Organ gelegten Segmentierungsnetz 214 zu betrachten. Der Bediener kann das Netz 214 dann manuell verändern, während das Bild und das Netz 214 visuell dargestellt werden. GIMMIE ermöglicht es dem Bediener, einen ”Zugpunkt” wie beispielsweise den Punkt 242 auszuwählen. GIMMIE verändert dann automatisch die Größe des Netzes 214 basierend auf der Position des vom Bediener ausgewählten Referenzpunktes 242. In einer anderen Ausführungsform kann der Bediener einen Zugpunkt auswählen, um die Größe des Netzes auf einem beliebigen der 2D-Bilder zu verändern. GIMMIE läuft unabhängig von Bildeigenschaften. Nachdem die Netzbearbeitung abgeschlossen sind, wird das gewünschte Volumen von Interesse extrahiert und verwendet, um ein überarbeitetes 3D-Bild des Organs von Interesse zu generieren.
  • In der exemplarischen Ausführungsform kann die Modifizierung der Größe oder Position eines exemplarischen Netzes, wie beispielsweise des Netzes 214, unter Verwendung von GIMMIE ermöglicht werden, indem ein Verfahren 400 angewendet wird, das in 11 gezeigt wird. Wie in 11 gezeigt wird, wird bei 402 mindestens eine, und vorzugsweise eine Vielzahl, von Ansichten des 3D-Bilddatensatzes gleichzeitig mit einem 3D-Ausgangsoberflächennetz 350 angezeigt, welches über jede der Ansichten gelegt wird. Beispielsweise illustriert 12 ein exemplarisches sagittales Bild 360, über das ein Netz 350 gelegt ist. 13 illustriert ein exemplarisches axiales Bild 362, über das ein Netz 350 gelegt ist. 14 illustriert ein exemplarisches koronales Bild 364, wobei das Netz 350 über jedes [der Bilder] gelegt ist.
  • Was 11 und 15 anbelangt, so wählt der Bediener, wie oben diskutiert, bei 404 einen Zugpunkt auf dem 3D-Ausgangsnetz 350 aus, wie beispielsweise der Zugpunkt 242. Einfachheitshalber wird der Zugpunkt 242 hier auch als ”Endpunkt” 242 bezeichnet, der die Position darstellt, in welche der Bediener einen Abschnitt des Netzes 350 neu positionieren möchte. Bei 406 wird ein Punkt auf der Netzoberfläche identifiziert, der am nächsten am Zugpunkt 242 liegt. In der exemplarischen Ausführungsform wird der Netzpunkt 240, welcher in 15 gezeigt wird, als der am nächsten an Zugpunkt 242 liegende Punkt bestimmt.
  • Bei 408 wird der Anpassungsabstand des Netzpunktes 240 durch Berechnung einer Differenz zwischen den Koordinaten des Zugpunktes 242 und den Koordinaten des Netzpunktes 240 bestimmt. Die Anpassungsrichtung wird auch bestimmt durch die Punkte 242 und 240. Der Scheitelpunkt bei Punkt 240 wird dann zum Zugpunkt hin 242 bewegt. Der effektive Radius des Aktualisierungsbereichs auf der Netzoberfläche kann vorausgewählt oder berechnet werden mittels Analyse der Bildoberflächenform. Der Aktualisierungsbereich auf der Bildoberfläche ist am Netzpunkt 240 zentriert. Bei 410 werden die Schritte 404 bis 408 so lange wiederholt, bis alle Scheitelpunkte innerhalb des Aktualisierungsbereichs berechnet und auf die überarbeitete Position, welche durch Zugpunkt 242 angezeigt wird, angepasst worden sind, während gleichzeitig ein überarbeitetes 3D-Bild 200 sowie das überarbeitete 3D-Netz, welches in 1214 gezeigt wird, angezeigt wird. Genauer gesagt werden bei Auswahl jedes Zugpunktes 242 durch den Bediener das 3D-Bild 200 und die 2D-Bilder, welche die überarbeitete Position des Netzes 350 zeigen, automatisch in Echtzeit aktualisiert, um die überarbeitete Position des Netzes 350 wiederzugeben. Wiederum Bezug nehmend auf 11, werden bei 412 Schritte 404410 für alle Abschnitte des Netzes 350, die der Bediener neu positionieren möchte, wiederholt. Es sei darauf hingewiesen, dass jeder Abschnitt des Netzes 350 neu positioniert werden kann, indem ein Zugpunkt auf demjenigen Punkt des Bildes, an den der Bediener das Netz bewegen möchte, manuell ausgewählt wird. Bei 414 wird eine Region, die von dem neu positionierten Netz umschlossen wird, extrahiert, wie im Folgenden genauer beschrieben wird.
  • In der exemplarischen Ausführungsform wird die Anpassung der Größe des Ausgangsnetzes 350 durch die Berechnung eines Abstandes zwischen dem Zugpunkt 242 und dem ausgewählten Punkt 240 implementiert, welcher den am nächsten zum Punkt 242 gelegenen Scheitelpunkt darstellt. Für jeden Scheitelpunkt in dem Bereich, der zwischen dem Zugpunkt 242 und dem Punkt 240 definiert ist, wird eine Scheitelpunkt-Verschiebungsstrecke und -Verschiebungsrichtung berechnet. Die berechnete Verschiebungsstrecke und Verschiebungsrichtung werden dann verwendet, um die visuelle Position des Ausgangsnetzes 350 in Echtzeit zu aktualisieren.
  • Beispielsweise illustriert 15 eine Ausgangsposition des Netzes 350. Das Netz 350 wird definiert durch die Vielzahl von Scheitelpunkten oder Netzpunkten 220. Die Vielzahl von Netzpunkten 220 definiert somit eine Oberfläche 352 des Ausgangsnetzes 350 an der Ausgangsposition. Die Oberfläche 352 stellt die Position des Netzes 350 dar, die von den Netzpunkten 240 angegeben wird. In der exemplarischen Ausführungsform kann das Netz 350 durch eine Vielzahl von Polygonen, wie beispielsweise Dreiecken oder Rechtecken, definiert werden, wobei jeder Scheitelpunkt mehrere benachbarte Scheitelpunkte hat. Außerdem stellt Punkt 242 denjenigen Punkt im 3D-Raum dar, zu dem der Bediener einen Abschnitt des Netzes 350 zu bewegen wünscht. Folglich klickt der Bediener beim Betrieb auf den Zugpunkt 242. Der Segmentierungsalgorithmus identifiziert automatisch einen lokalen Bereich 356 um den Netzpunkt 240 herum und lässt den lokalen Bereich 352 in den überarbeiteten Bereich 356 übergehen. In der exemplarischen Ausführungsform ist der Übergang zwischen dem Bereich 352 und dem Bereich 356 im Wesentlichen fließend und der Rand der aktualisierten lokalen Oberfläche [bei] 356 wird fließend in die ursprüngliche Netzoberfläche 352 überführt.
  • In der exemplarischen Ausführungsform kann das Ausgangsnetz 350 eine beliebige Form haben. In der hier beschriebenen Ausführungsform ist die Oberfläche 352 des Netzes 350 so geformt, dass sie sich an das Gehirn 202 anpasst. Allerdings sei darauf hingewiesen, dass die Netzoberfläche 352 eine beliebige Form annehmen kann, so dass sie sich auf ein Organ von einer beliebigen Form anpassen kann. Folglich werden beim Betrieb für jeden Scheitelpunkt im Netz dessen benachbarte Scheitelpunkte berechnet. Das Ausgangsnetz 350 wird dann zum Zwecke der Auto-Deformation im Bild 200 des Kopfes positioniert. Das Auto-Deformation-Verfahren steuert dann jeden Scheitelpunkt auf dem Gehirnnetz 214 zur Gehirnoberfläche hin, um ein Bild zu generieren, das beispielsweise das abschließende Netz 358 umfasst. Beispielsweise illustriert 16 ein exemplarisches Bild 380, das die Position des Ausgangsnetzes 350 am Netzpunkt 240 zeigt. Zusätzlich wird in 17 ein exemplarisches Bild 382 illustriert, das die Position des abschließenden Netzes 358 am Zugpunkt 242 zeigt, nachdem es wie hier beschrieben automatisch angepasst worden ist. Beim Betrieb umfasst das Verschieben oder Bewegen des Ausgangsnetzes 350 vom Punkt 240 zum Punkt 242 die dreidimensionale Bearbeitung Hunderter oder Tausender von Scheitelpunkten auf der Netzoberfläche 352 mit einem einzigen Klick. In einer Ausführungsform kann die Bearbeitung eine Bearbeitung von mehr oder weniger als Hunderten oder Tausenden von Scheitelpunkten umfassen.
  • Genauer gesagt wählt, wiederum Bezug nehmend auf 15, der Bediener den Zugpunkt 242 aus. Die Koordinaten des Zugpunktes 242 werden identifiziert, wobei beispielsweise das Segmentierungsmodul 32 verwendet wird. Bei 408 wird ein Anpassungsabstand zwischen dem Zugpunkt 242 und dem nächstliegenden Netzpunkt 240 bestimmt, indem die Differenz zwischen den Koordinaten des Zugpunktes 242 und den Koordinaten des Punktes 240 berechnet wird. Die Scheitelpunkte des Ausgangsnetzes 350 werden angepasst, während gleichzeitig ein überarbeitetes 3D-Bild 200 sowie die überarbeiteten Bilder, die in 1214 abgebildet sind, angezeigt werden.
  • Genauer gesagt wählt der Bediener beim Betrieb den Zugpunkt 242 aus. Das Modul 32 sucht dann nach einem Scheitelpunkt auf der Netzoberfläche, der sich am nächsten am Zugpunkt 242 befindet, wie beispielsweise einem Scheitelpunkt 240. Dann wird eine radiale Größe eines Aktualisierungsbereiches 392 durch die Krümmung der Oberfläche 352 bestimmt, oder es wird ein zuvor festgelegter Wert verwendet. In einer Ausführungsform wird in dem Fall, dass die Größe des Aktualisierungsbereiches 392 relativ groß ist, eine radiale Größe des Aktualisierungsbereiches 392 [so ausgewählt, dass sie] beispielsweise zwischen ungefähr 80 und 100 mm liegt. Optional kann in dem Fall, dass die radiale Größe des Aktualisierungsbereichs 392 relativ klein ist, die radiale Größe des Aktualisierungsbereichs 392 so ausgewählt werden, dass sie beispielsweise zwischen ungefähr 40 und 60 mm liegt. Es sei darauf hingewiesen, dass der Aktualisierungsbereich 392 Größen haben kann, die von den hier beschriebenen exemplarischen Größen abweichen. Das Segmentierungsmodul 32 berechnet die Richtung der Oberflächenaktualisierung basierend auf der Bewegung des Punktes 240 zum Punkt 242, wobei beispielsweise ein Richtungsvektor verwendet wird, der die radiale Bewegung und Größenordnung der Veränderungen angibt.
  • Beispielsweise verläuft die Aktualisierungsrichtung 244 parallel zu einer Linie, die sich zwischen den Punkten 240 und 242 erstreckt. In der exemplarischen Ausführungsform sind die Scheitelpunkte im Aktualisierungsbereich 392 parallel verschoben. Um einen fließenden Übergang zwischen der Oberfläche 352 und der Oberfläche 358 zu generieren, wird die Verschiebungsstrecke jedes Scheitelpunktes übereinstimmend mit einem Dämpfungsfaktor σ berechnet, der vom Aktualisierungsradius bestimmt wird. Somit wird 3D-Aktualisierung zu einer 1D-Berechnung vereinfacht.
  • In der exemplarischen Ausführungsform kann die Verschiebungsfunktion, welche zur Parallelverschiebung der Scheitelpunkte verwendet wird, berechnet werden gemäß:
    Figure 00310001
    wobei l den Abstand zwischen dem Endpunkt 242 und dem nächstgelegenen Scheitelpunkt darstellt;
    d(vi) den Abstand zwischen dem Scheitelpunkt vi und einer Linie bezeichnet, welche Punkt 240 und Punkt 242 verbindet; und
    σ ein Dämpfungsfaktor ist, der verwendet wird, um die Dämpfung der Verschiebungsstrecke für jeden Scheitelpunkt in dem Aktualisierungsbereich 392 zu kontrollieren.
  • In der exemplarischen Ausführungsform, wird σ kleiner als R/3. eingestellt, damit das abschließende Netz 358 in der Grenze des Aktualisierungsbereiches 392 fließend in das Ausgangsnetz 350 übergehen kann. Hierbei ist R die radiale Größe des Aktualisierungsbereichs. Die Position des abschließenden Netzes 358 wird dann berechnet gemäß: p →'(vi) = p →0(vi) + s(vi)·n → Gleichung 2 wobei n → die Richtung von Punkt 240 zu Punkt 242 ist; und
    p →0 und p' → die ursprünglichen und aktualisierten Scheitelpunktpositionen darstellen. Die Verarbeitungsschritte des 3D-Netz-Editing werden in 11 gezeigt.
  • Wiederum Bezug nehmend auf 11, werden bei 412 Schritte 404410 wiederholt, bis das Netz 214 sich an der vom Bediener gewünschten Position befindet, z. B. bis der Bediener mit der durch das Oberflächennetz 214 definierten 3D-Region zufrieden ist. Bei 414 kann eine vom 3D-Netz umschlossene Region als ein überarbeitetes 3D-Bild extrahiert werden. Genauer gesagt kann die vom 3D-Netz eingekapselte Region extrahiert werden, so dass sie ein separates 3D-Bild bildet, welches ausschließlich die vom Bediener ausgewählten innerhalb des 3D-Netzes liegenden Informationen umfasst.
  • Verschiedene hier beschriebene Ausführungsformen liefern ein Bearbeitungswerkzeug, [das die Aktualisierung von mehreren Bildpunkten in einer einzigen Operation ermöglicht]. Die aktualisierte Bildoberfläche ist glatt und natürlich. Die verschiedenen Ausführungsformen versetzen einen Bediener in die Lage, mindestens einen Punkt auf dem 3D-gerenderten Netz 214 oder auf dem 3D-Bild 202 manuell auszuwählen und gleichzeitig drei orthogonale Schichten mitsamt den 3D-Netzpunkten 220 anzuzeigen, die basierend auf dem ausgewählten Punkt, welcher der 3D-Position und der vom Benutzer ausgewählten Ausrichtung entspricht, über die drei orthogonalen Schichten gelegt werden. Außerdem können die angezeigten Bilder verwendet werden, um es einem Bediener zu ermöglichen, die Größe des Netzes durch das Hinzufügen interessierender Bereiche oder durch die Löschung von nicht interessierenden Bereichen zu verändern. Die verschiedenen Ausführungsformen werden in Echtzeit implementiert und können [für] verschiedene Anwendungen in verschiedenen Modalitäten verwendet werden.
  • 18 ist ein Flussdiagramm, das ein exemplarisches Verfahren 500 zur Extraktion eines 3D-Bildes aus einem 3D-Bilddatensatz illustriert. In der exemplarischen Ausführungsform handelt es sich bei dem interessierenden Objekt um das Gehirn 202. Allerdings sei darauf hingewiesen, dass das Verfahren 400 angewendet werden kann, um ein beliebiges interessierendes Objekt innerhalb eines 3D-Bilddatensatzes zu extrahieren. In der exemplarischen Ausführungsform wird die Bildextraktion durch das 3D-Bildextraktionsmodul 34 (in 1 gezeigt) basierend auf einer manuellen Eingabe ausgeführt, die von einem Bediener empfangen wird. Allerdings es sei darauf hingewiesen, dass die verschiedenen Verfahren zur Extraktion eines 3D-Bildes unter Verwendung eines beliebigen Bildgebungssystems implementiert werden können und dass das in 1 gezeigte Bildgebungssystem 10 eine Ausführungsform eines solchen exemplarischen Bildgebungssystems darstellt. Das Verfahren 500 kann ausgeführt werden als ein Befehlssatz, der beispielsweise im Computer 20 und/oder dem Segmentierungsmodul 30 gespeichert ist.
  • Bei 502 wird, ähnlich wie bei 102 und 302, eine Bildgebungsabtastung an einem Objekt 12 ausgeführt, um den Rohbilddatensatz 14 zu generieren. Wie oben diskutiert, handelt es sich in der exemplarischen Ausführungsform beim Bilddatensatz 14 um einen volumetrischen 3D-Datensatz.
  • Bei 504 wird ein gewünschtes 3D-Netz auf einer interessierenden Region des 3D-Bildes platziert. Beim Betrieb wird das gewünschte Netz so konfiguriert, dass es interessierende Objekte, wie beispielsweise das Gehirn, lokalisiert und Bilddaten des Gehirns von den Bilddaten der umgebenden Objekte, die von weniger oder keinem Interesse sind, durch Segmentierung trennt. Obwohl verschiedene Ausführungsformen in Bezug auf die Bildgebung des Gehirns beschrieben werden, können somit auch andere interessierende Organe auf die hier beschriebe Weise abgebildet und segmentiert werden. In der exemplarischen Ausführungsform vergleicht die Oberfläche den Dichtewert für jedes Voxel im Bilddatensatz 14 automatisch mit einem zuvor festgelegten Dichtewert, was beispielsweise unter Verwendung eines Thresholding-Verfahrens erfolgen kann. Das gewünschte Netz kann durch eine Vielzahl von Polygonen, wie beispielsweise Dreiecken oder Rechtecken, definiert werden, wobei jeder Scheitelpunkt mehrere benachbarte Scheitelpunkte hat. In der exemplarischen Ausführungsform wird das gewünschte Netz durch eine Vielzahl von Dreiecken definiert.
  • Bei 506 wird eine Normalrichtung eines Dreiecks, welches das gewünschte Netz bildet, berechnet und auf ein Koordinatenkreuz projiziert. 19 illustriert ein exemplarisches Dreieck 550, das einen Teil eines gewünschten Netzes 552 bildet. Wie in 19 gezeigt, wird das Dreieck 550 gemäß verschiedenen Ausführungsformen auf eine exemplarische Oberfläche oder Projektionsebene 554 projiziert. Das projizierte Dreieck wird als Dreieck 556 abgebildet. Die Oberflächenebene 554 wird durch eine x-Achse 560 und eine y-Achse 562 definiert. Außerdem wird der Projektionsraum durch die x-Achse 560, die y-Achse 562 und eine z-Achse 564 definiert.
  • Folglich werden die Koordinaten des Dreiecks 550 definiert als (x1, y1, z1), (x2, y2, z2) und (x3, y3, z3), wobei (x1, y1, z1) einen ersten Punkt oder eine erste Ecke 570 des Dreiecks 550 darstellt, (x2, y2, z2) einen zweiten Punkt oder eine zweite Ecke 572 des Dreiecks 550 darstellt, und (x3, y3, z3) einen dritten Punkt oder eine dritte Ecke 574 des Dreiecks 550 darstellt. Außerdem werden die Koordinaten des projizierten Dreiecks 556 definiert durch (x1, y1), womit ein erster Punkt oder eine erste Ecke 580 des Dreiecks 556 dargestellt wird, (x2, y2), womit ein zweiter Punkt oder eine zweite Ecke 582 des Dreiecks 556 dargestellt wird, und (x3, y3), womit ein dritter Punkt oder eine dritte Ecke 584 des Dreiecks 556 dargestellt wird.
  • Schritt 506 umfasst auch die Identifizierung von Gitterpunkten, die sich innerhalb des projizierten Dreiecks 556 befinden. Erneut Bezug nehmend auf 19, wird, um die Gitterpunkte zu identifizieren, die sich innerhalb des projizierten Dreiecks 556 befinden, eine Linie 596 gebildet, um die (x, y)-Ebene in zwei Teile zu unterteilen, die zwischen dem ersten Punkt 580 und dem zweiten Punkt 582 definiert sind. In der exemplarischen Ausführungsform wird die Linie 596 (y) berechnet gemäß: y = y2 – y1 / x2 – x1x + y1 – y2 – y1 / x2 – x1x1 Gleichung 3
  • In der exemplarischen Ausführungsform sind die x- und y-Suchbereiche bei Gleichung 3 auf ein Rechteck eingeschränkt, welches beschrieben wird als: min(x1, x2, x3) ≤ x ≤ max(x1, x2, x3) min(y1, y2, y3) ≤ y ≤ max(y1, y2, y3) Gleichung 4
  • Um zu bestimmen, ob ein Gitterpunkt, wie beispielsweise ein Gitterpunkt 600, sich innerhalb des projizierten Dreiecks 556 befindet, wird bei 510 die Position der Linie y in Bezug auf eine Position des dritten Punktes 584 (x3, y3) des projizierten Dreiecks berechnet. Genauer gesagt unterteilt die Linie y, die in Gleichung 3 beschrieben wird, die (x, y)-Projektionsebene 554 in zwei Teile. Wenn ein ausgewählter Gitterpunkt sich nicht auf derselben Seite wie der dritte Punkt 602 (x3, y3) oder auf der Linie 596 befindet, wird bestimmt, dass der ausgewählte Gitterpunkt sich außerhalb des projizierten Dreiecks 586 befindet. In der exemplarischen Ausführungsform kann die Linie, die durch die Position des dritten Punktes 602 (x3, y3) verläuft, unter Verwendung der Gleichung 3 und der Koordinaten des dritten Punktes 585 (x3, y3) bestimmt werden. Ebenso können die Linien, die durch den ersten und zweiten Punkt 580 und 582 (x2, y2) und (x3, y3) verlaufen, auf dieselbe Weise berechnet werden wie die Linie, welche durch die dritten Punkte 584 verläuft, um die Gitterpunkte in dem rechteckigen Suchraum zu identifizieren, [die sich jedoch nicht innerhalb des projizierten Dreiecks 556 befinden]. Die Gitterpunkte, die in dem rechteckigen Suchbereich übrig bleiben, werden dann ausgewählt, um interpoliert werden, wie im Folgenden detaillierter diskutiert wird.
  • Für jeden Gitterpunkt, der vom Dreieck 556 eingefasst wird, kann die dritte Koordinate z anhand der Gleichung 5 berechnet werden. Bei 512 werden Schritte 506510 für jeden rechteckigen Abschnitt, der das gewünschte Netz 552 bildet, wiederholt, um eine umschlossene 3D-Maskierungsoberfläche zu generieren:
    Figure 00380001
  • Bei 514 wird das Volumen, das vom abschließenden 3D-Oberflächennetz eingekapselt wird, extrahiert. In der exemplarischen Ausführungsform werden die Maximum- und Minimum-Koordinaten des abschließenden 3D-Oberflächennetzes in drei Richtungen berechnet, um das 3D-Volumen zu identifizieren, das für die Extraktion gemäß Gleichung 5 ausgewählt wurde. Folglich wird jeder Punkt in dem gewünschten Netz 552 in drei Richtungen überprüft, um zu bestimmen, ob der Punkt sich innerhalb des umschlossenen Netzes befindet. Wenn sich ein ausgewählter Punkt innerhalb des Netzes befindet, werden die Daten des Punktes extrahiert, um das 3D-Bild zu generieren.
  • Beispielsweise handelt es sich bei 20 um ein Bild des 3D-Ausgangsnetzes 552 und bei 21 um ein 2D-Bild des Gehirns, welches vom Ausgangsnetz 552 eingekapselt wird. Wie in 20 gezeigt, sind die schwarzen Rechtecke 610 die Scheitelpunkte auf der Netzoberfläche 552 und die weißen Rechtecke 612 sind die interpolierten Punkte, die wie oben diskutiert abgeleitet wurden. Zusammen bilden die weißen und die schwarzen Rechtecke 610 und 612 ein komplettes umschlossenes Oberflächennetz 614. Außerdem ist 22 eine koronale Ansicht 620 des Gehirns 202, welche das abschließende Oberflächennetz 614 umfasst, und 23 ist eine 2D-Schicht 622 des Gehirns 202, die unter Verwendung des abschließenden Oberflächennetzes 614 generiert werden kann.
  • Ein technischer Effekt der verschiedenen Ausführungsformen ist die Ermöglichung der automatischen Suche nach Interpolationspunkten im 3D-Gitterraum und die Erzeugung eines vollständigen Satzes von 3D-Interpolationspunkten. Die ursprünglichen Netzscheitelpunkte und die gesuchten Interpolationspunkte bilden eine vollständige 3D-Oberfläche, welche ein zu extrahierendes Bildvolumen umschließt. Genauer gesagt wird bei verschiedenen Ausführungsformen jedes Netzdreieck auf eine 2D-Ebene projiziert, um nach 3D-Interpolationspunkten zu suchen, die vom Dreieck umschlossen werden.
  • 24 ist ein schematisches Blockdiagramm des Bildgebungssystems 10, das in 1 gezeigt wird. In der exemplarischen Ausführungsform handelt es sich bei dem Bildgebungssystem 10 um ein MRI-System, wobei es auch einen supraleitenden Magneten 700 umfasst, der aus magnetischen Spulen gebildet wird, die auf einer Magnetspulen-Tragestruktur befestigt sind. Allerdings können in anderen Ausführungsformen andere Magnettypen verwendet werden, wie beispielsweise Permanentmagneten oder Elektromagneten. Ein Gefäß 702 (auch als Kryostat bezeichnet) umgibt den supraleitenden Magneten 700 und ist mit flüssigem Helium gefüllt, um die Spulen des supraleitenden Magneten 700 zu kühlen. Es ist eine Wärmeisolierung 704 vorhanden, welche die äußere Oberfläche des Gefäßes 702 und die innere Oberfläche des supraleitenden Magneten 700 umgibt. Innerhalb des supraleitenden Magneten 700 befindet sich eine Vielzahl von magnetischen Gradientenspulen 706, und innerhalb der Vielzahl von magnetischen Gradientenspulen 706 befindet sich eine HF-Übertragungsspule 708. In einigen Ausführungsformen kann die HF-Übertragungsspule 708 durch eine Sende-Empfangsspule ersetzt werden, die hier genauer beschrieben wird. Die oben beschriebenen Komponenten befinden sich innerhalb einer Gantry 710 und bilden im Allgemeinen einen Bildgebungsabschnitt 712. Es sei darauf hingewiesen, dass obwohl der supraleitende Magnet 700 eine zylindrische Form hat, andere Magnetformen zum Einsatz kommen können.
  • Ein Verarbeitungsabschnitt 720 umfasst im Allgemeinen einen Regler 722, einen Hauptmagnetfeldregler 724, einen Gradientenfeldregler 726, den Computer 20, eine Anzeigevorrichtung 728, einen Sende-Empfangsschalter (TR-Schalter) 730, einen HF-Sender 732 und einen Empfänger 734. In der exemplarischen Ausführungsform umfasst der Computer 20 das 3D-Bildnavigationsmodul 30, durch welches es einem Bediener ermöglicht wird, innerhalb des 3D-Bildes auf der Grundlage einer vom Bediener empfangenen manuellen Eingabe zu navigieren. Der Computer 20 umfasst auch das Segmentierungsmodul 32 zur Segmentierung von 3D-Bilddatensatz 14, so dass ein segmentiertes 3D-Bild 22 generiert wird. Der Computer 20 umfasst ferner das Objektextraktionsmodul 34 zur Extraktion eines 3D-Bildes eines exemplarischen Objekts oder Organs (nicht gezeigt) aus dem 3D-Bilddatensatz 14.
  • Beim Betrieb wird der Körper eines Objekts, wie beispielsweise eines Patienten (nicht gezeigt), in einer Rohrweite 740 auf einer geeigneten Tragestruktur, wie beispielsweise einem motorisierten Tisch (nicht gezeigt) oder einem anderen Patiententisch, platziert. Der supraleitende Magnet 700 erzeugt ein einheitliches und statisches Hauptmagnetfeld Bo in der gesamten Rohrweite 740. Die Stärke des elektromagnetischen Feldes in der Rohrweite 740 und somit auch im Körper des Patienten wird vom Regler 722 über den Hauptmagnetfeldregler 724 gesteuert, welcher auch die Zufuhr von Strom an den supraleitenden Magneten 700 reguliert.
  • Es sind magnetische Gradientenspulen 706, welche ein oder mehrere Gradientenspulenelemente umfassen, vorhanden, so dass ein Magnetgradient auf das Magnetfeld Bo in der Rohröffnung 740 innerhalb des supraleitenden Magneten 700 in einer oder mehreren von drei orthogonalen Richtungen x, y, und z angewendet werden kann. Die magnetischen Gradientenspulen 706 werden durch den Gradientenfeldregler 726 mit Energie versorgt und werden ebenfalls von Regler 722 gesteuert.
  • Die HF-Übertragungsspule 708, die eine Vielzahl von Spulen (z. B. Resonanz-Oberflächenspulen) umfassen kann, ist so angeordnet, dass sie magnetische Impulse überträgt und/oder optional gleichzeitig MR-Signale vom Patienten erkennt, sofern auch Empfangsspulenelemente vorhanden sind, wie beispielsweise eine Oberflächenspule (nicht gezeigt), die als eine HF-Empfangsspule konfiguriert ist. Die HF-Übertragungsspule 706 und die Empfangs-Oberflächenspule sind durch den Sende-Empfangsschalter 730 jeweils auswählbar mit einem aus HF-Sender 732 oder dem Empfänger 734 verbunden. Der HF-Sender 732 und Sende-Empfangsschalter 730 werden vom Regler 722 gesteuert, so dass HF-Feldimpulse oder Signale durch den HF-Sender 732 generiert und selektiv auf den Patienten angewendet werden, um im Körper des Patienten eine magnetische Resonanz anzuregen.
  • Nach der Anwendung der HF-Impulse wird der Sende-Empfangsschalter 730 erneut betätigt, um die HF-Übertragungsspule 708 von dem HF-Sender 732 abzukoppeln. Die erfassten MR-Signale werden wiederum an Regler 722 übermittelt. Der Regler 722 kann einen Prozessor (z. B. das Diffusion-Spectrum-Imaging(DSI)-Modul 30) umfassen. Die verarbeiteten Signale, die das Bild darstellen, werden ebenfalls an die Anzeigevorrichtung 728 übertragen, um eine visuelle Anzeige des Bildes zu liefern. Genauer gesagt füllen die MR-Signale einen q-Raum aus beziehungsweise bilden einen solchen, wobei dieser unter Verwendung der verschiedenen hier beschriebenen Verfahren rekonstruiert wird, um ein Bild zu gewinnen, das betrachtet werden kann. Die verarbeiteten Signale, die das Bild repräsentieren, werden dann an die Anzeigevorrichtung 728 übertragen.
  • Verschiedene hier beschriebene Ausführungsformen liefern ein physisches und nichtflüchtiges maschinenlesbares Medium oder Medien, auf denen Befehle für einen Prozessor oder Computer aufgezeichnet sind, damit dieser ein Bildgebungsgerät betreiben kann, so dass Ausführungsformen des hier beschriebenen Verfahrens ausgeführt werden können. Bei dem Medium oder den Medien kann es sich um einen beliebigen Typ von CD-ROM, DVD, Diskette, Festplatte, optischer Disk, Flash-RAM-Dive oder einen anderen Typ eines computerlesbaren Mediums oder eine Kombination von diesen handeln.
  • Die verschiedenen Ausführungsformen und/oder Komponenten, beispielsweise der Monitor oder das Display, oder darin befindliche Komponenten und Regler, können auch als Teil eines oder mehrerer Computer oder Prozessoren implementiert werden. Der Computer oder Prozessor kann eine Rechnervorrichtung, eine Eingabevorrichtung, eine Anzeigeeinheit und eine Schnittstelle, beispielsweise zum Zugriff auf das Internet, umfassen. Der Computer oder Prozessor kann einen Mikroprozessor umfassen. Der Mikroprozessor kann mit einem Kommunikationsbus verbunden werden. Der Computer oder Prozessor kann auch einen Speicher umfassen. Der Speicher kann Seicher mit wahlfreiem Zugriff (RAM) und Nur-Lese-Speicher (ROM) umfassen. Der Computer oder Prozessor kann auch eine Speichervorrichtung umfassen, bei der es sich um ein Festplattenlaufwerk oder eine Wechseldatenspeichervorrichtung wie ein Diskettenlaufwerk, optisches Laufwerk, u. ä. handeln kann. Bei der Speichervorrichtung kann es sich auch um andere ähnliche Mittel zum Laden von Computerprogrammen oder anderen Befehlen auf den Computer oder Prozessor handeln.
  • Es sei darauf hingewiesen, dass die obige Beschreibung illustrativen Zwecken dienen soll und nicht einschränkenden Charakters ist. Beispielsweise können die oben beschriebenen Ausführungsformen (und/oder Aspekte von diesen) in Kombination miteinander verwendet werden. Zusätzlich können viele Modifikationen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Einsichten der verschiedenen Ausführungsformen anzupassen, ohne dass dabei eine Abweichung von deren Schutzumfang vorliegt. Obwohl die hier beschriebenen Dimensionen und Materialtypen die Parameter der verschiedenen Ausführungsformen definieren sollen, sind sie keinesfalls einschränkender, sondern lediglich exemplarischer Natur. Auf diesem Gebiet fachkundigen Personen werden beim Lesen der obigen Beschreibung zahlreiche andere Ausführungsformen einfallen. Der Schutzumfang der verschiedenen Ausführungsformen sollte somit unter Bezugnahme auf die angehängten Patentansprüche bestimmt werden, und zwar zusammen mit dem vollen Schutzumfang der Äquivalente, zu denen solche Patentansprüche berechtigen. In den angehängten Patentansprüchen werden die Begriffe ”mitsamt” und ”in welchem/welcher” als Äquivalente der entsprechenden Begriffe ”umfassend” und ”worin” verwendet. Außerdem werden in den folgenden Ansprüchen die Begriffe ”erste/r/s”, ”zweite/r/s” und ”dritte/r/s” etc. lediglich im kennzeichnenden Sinne gebraucht, wobei damit keine zahlenmäßigen Anforderungen in Bezug auf die entsprechenden Objekte auferlegt wird. Ferner sind die Einschränkungen der nachfolgenden Patentansprüche nicht im ”Mittel-plus-Funktion”-Format geschrieben und sollen nicht auf Grundlage von 35 U. S. C. § 112, Paragraph sechs, ausgelegt werden, sofern nicht und bis bei solch einer Einschränkung der Ansprüche ausdrücklich der Ausdruck ”Mittel für” gefolgt von einer Feststellung der Funktion ohne weitere Struktur verwendet wird.
  • In dieser schriftlichen Beschreibung werden Beispiele, wozu auch der beste Modus zählt, herangezogen, um die verschiedenen Ausführungsformen darzulegen, und auch, um eine beliebige auf diesem Gebiet fachkundige Person in die Lage zu versetzen, die Ausführungsformen auszuführen, wozu auch die Herstellung und Verwendung sämtlicher Vorrichtungen oder Systeme und die Durchführung sämtlicher dazugehöriger Verfahren zählt. Der patentierbare Umfang der verschiedenen Ausführungsformen wird durch die Patentansprüche definiert, und kann andere Beispiele umfassen, welche auf diesem Gebiet fachkundigen Personen einfallen mögen. Solche anderen Beispiele sind innerhalb des Schutzumfangs der Patentansprüche vorgesehen, sofern die Beispiele strukturelle Elemente aufweisen, die sich nicht von den wörtlichen Formulierungen der Patentansprüche unterscheiden, oder sofern die Beispiele äquivalente strukturelle Elemente enthalten, die nur unwesentlich von den wörtlichen Formulierungen der Patentansprüche abweichen.
  • Ein Verfahren zur Extraktion eines dreidimensionalen (3D) interessierenden Volumens aus einem dreidimensionalen (3D) Bilddatensatz umfasst den Zugriff auf einen 3D-Bilddatensatz, der eine Vielzahl von Bildschichten umfasst, das Umschließen des interessierenden 3D-Volumens in dem 3D-Bilddatensatz unter Verwendung eines 3D-Netzes, die automatische Extraktion des interessierenden 3D-Volumens basierend auf dem 3D-Netz, und die Generierung eines 3D-Bildes des extrahierten interessierenden 3D-Volumens. Außerdem werden hierin ein Computer und ein nichtflüchtiges computerlesbares Medium beschrieben.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • 35 U. S. C. § 112, Paragraph sechs [0093]

Claims (20)

  1. Verfahren zur Extraktion eines dreidimensionalen (3D) interessierenden Volumens aus einem dreidimensionalen (3D) Bilddatensatz, wobei das Verfahren umfasst: Zugriff auf einen 3D-Bilddatensatz, der eine Vielzahl von Bildschichten umfasst; Umschließen eines interessierenden 3D-Volumens in dem 3D-Bilddatensatz unter Verwendung eines 3D-Netzes; automatische Extraktion des interessierenden 3D-Volumens basierend auf dem 3D-Netz; und Generierung eines 3D-Bildes des extrahierten interessierenden 3D-Volumens.
  2. Verfahren gemäß Anspruch 1, wobei das 3D-Netz so konfiguriert ist, dass es das interessierende Objekt im Wesentlichen einkapselt.
  3. Verfahren gemäß einem der vorangegangenen Ansprüche, wobei das 3D-Netz eine Vielzahl von Dreiecken umfasst, wobei das Verfahren ferner umfasst: Projektion der Dreiecke auf drei orthogonale zweidimensionale (2D) Ebenen; und Identifizierung eines Satzes von 2D-Gitterpunkten, die von dem entsprechenden Dreieck eingefasst werden, für jedes Dreieck.
  4. Verfahren gemäß Anspruch 3, ferner die Berechnung einer Vielzahl von Drittkoordinaten auf einer Oberfläche des 3D-Netzes für jeden Satz von 2D-Gitterpunkten umfassend.
  5. Verfahren gemäß Anspruch 4, ferner umfassend: Erzeugung einer umschlossenen 3D-Oberfläche auf dem 3D-Netz unter Verwendung der Drittkoordinaten; und Extraktion des interessierenden Volumens unter Verwendung der umschlossenen 3D-Oberfläche für jedes Dreieck.
  6. Verfahren gemäß Anspruch 5, ferner umfassend: Identifizierung von Bildvoxels, die sich innerhalb des 3D-Netzes befinden; Identifizierung von Bildvoxels, die sich außerhalb des 3D-Netzes befinden; und Extraktion des interessierenden Volumens unter ausschließlicher Verwendung der Bildvoxels, die sich innerhalb des 3D-Netzes befinden.
  7. Verfahren gemäß Anspruch 6, ferner die Überprüfung jedes Bildvoxels in drei orthogonalen Richtungen umfassend, um zu bestimmen, ob sich der Oberflächenpunkt innerhalb oder außerhalb des 3D-Netzes befindet.
  8. Verfahren gemäß einem der vorangegangenen Ansprüche, ferner die Anzeige eines 3D-Bildes des interessierenden 3D-Volumens und des 3D-Netzes auf einer Anzeigevorrichtung umfassend.
  9. System zur Extraktion eines dreidimensionalen (3D) interessierenden Volumens aus einem dreidimensionalen (3D) Bild, wobei der Computer umfasst: Benutzerschnittstelle; und Prozessor, der an die Benutzerschnittstelle gekoppelt ist, wobei der Prozessor konfiguriert ist für: Zugriff auf einen 3D-Bilddatensatz, der eine Vielzahl von Bildschichten umfasst; Umschließen eines interessierenden 3D-Volumens im 3D-Bilddatensatz unter Verwendung eines 3D-Netzes; automatische Extraktion des interessierenden 3D-Volumens basierend auf dem 3D-Netz; und Generierung eines 3D-Bildes des extrahierten interessierenden 3D-Volumens.
  10. System gemäß Anspruch 9, wobei das 3D-Netz so konfiguriert ist, dass es das interessierende Objekt im Wesentlichen einkapselt.
  11. System gemäß Anspruch 9 oder 10, wobei das 3D-Netz eine Vielzahl von Dreiecken umfasst, wobei der Prozessor ferner konfiguriert ist für: Projektion der Dreiecke auf drei orthogonale zweidimensionale (2D) Ebenen; und Identifizierung eines Satzes von 2D-Gitterpunkten, die von dem entsprechenden Dreieck umschlossen werden, für jedes Dreieck.
  12. System gemäß Anspruch 9, 10, oder 11, wobei der Prozessor ferner so konfiguriert ist, dass er eine Vielzahl von Drittkoordinaten auf einer Oberfläche des 3D-Netzes für jeden Satz von 2D-Gitterpunkten berechnet.
  13. System gemäß Anspruch 12, wobei der Prozessor ferner konfiguriert ist für: Erzeugung einer umschlossenen 3D-Oberfläche auf dem 3D-Netz unter Verwendung der Drittkoordinaten; und Extraktion des interessierenden Volumens unter Verwendung der umschlossenen 3D-Oberfläche für jedes Dreieck.
  14. System gemäß Anspruch 13, wobei der Prozessor ferner konfiguriert ist für: Identifizierung von Bildvoxels, die sich innerhalb des 3D-Netzes befinden; Identifizierung von Bildvoxels, die sich außerhalb des 3D-Netzes befinden; und Extraktion des interessierenden Volumens unter ausschließlicher Verwendung der Bildvoxels, die sich innerhalb des 3D-Netzes befinden.
  15. System gemäß Anspruch 14, wobei der Prozessor ferner so konfiguriert ist, dass er jedes Bildvoxel in drei orthogonalen Richtungen überprüft, um zu bestimmen, ob ein Oberflächenpunkt sich innerhalb oder außerhalb des 3D-Netzes befindet.
  16. System gemäß Ansprüchen 9–15, wobei der Prozessor ferner so konfiguriert ist, dass er ein 3D-Bild des interessierenden 3D-Volumens sowie das 3D-Netz auf einer Anzeigevorrichtung anzeigt.
  17. Nichtflüchtiges computerlesbares Medium, das so programmiert ist, dass es einen Computer veranlasst zu: Zugriff auf einen 3D-Bilddatensatz, der eine Vielzahl von Bildschichten umfasst; Umschließen eines interessierenden 3D-Volumens in dem 3D-Bilddatensatz unter Verwendung eines 3D-Netzes; automatische Extraktion des interessierenden 3D-Volumens basierend auf dem 3D-Netz; und Generierung eines 3D-Bildes des extrahierten interessierenden 3D-Volumens.
  18. Nichtflüchtiges computerlesbares Medium gemäß Anspruch 17, wobei das 3D-Netz so konfiguriert ist, dass es das interessierende Objekt im Wesentlichen einkapselt.
  19. Nichtflüchtiges computerlesbares Medium gemäß Anspruch 17 oder 18, wobei das 3D-Netz eine Vielzahl von Dreiecken umfasst, wobei das computerlesbare Medium ferner so programmiert ist, dass es einen Computer veranlasst zu: Projektion der Dreiecke auf drei orthogonale zweidimensionale (2D) Ebenen; und Identifizierung eines Satzes von 2D-Gitterpunkten, welche von dem entsprechenden Dreieck umschlossen werden, für jedes Dreieck.
  20. Nichtflüchtiges computerlesbares Medium gemäß Anspruch 17, 18, oder 19, wobei das computerlesbare Medium ferner so programmiert ist, dass es einen Computer anweist, eine Vielzahl von Drittkoordinaten auf einer Oberfläche des 3D-Netzes für jeden Satz von 2D-Gitterpunkten zu berechnen.
DE102012107529A 2011-08-24 2012-08-16 Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes Withdrawn DE102012107529A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/217,082 US8477153B2 (en) 2011-08-24 2011-08-24 Method and system for navigating, segmenting, and extracting a three-dimensional image
US13/217,082 2011-08-24

Publications (1)

Publication Number Publication Date
DE102012107529A1 true DE102012107529A1 (de) 2013-02-28

Family

ID=47665350

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012107529A Withdrawn DE102012107529A1 (de) 2011-08-24 2012-08-16 Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes

Country Status (3)

Country Link
US (1) US8477153B2 (de)
JP (1) JP6133026B2 (de)
DE (1) DE102012107529A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9829996B2 (en) * 2012-06-25 2017-11-28 Zspace, Inc. Operations in a three dimensional display system
EP2713341B1 (de) * 2012-09-28 2015-08-19 ABB Research Ltd. Visualisierung von dreidimensionalen Stromverteilungsdaten
CN105741345A (zh) * 2014-12-10 2016-07-06 富泰华工业(深圳)有限公司 点云法向量调整方法及系统
US10586398B2 (en) * 2014-12-18 2020-03-10 Koninklijke Philips N.V. Medical image editing
US9799135B2 (en) * 2015-09-01 2017-10-24 Siemens Healthcare Gmbh Semantic cinematic volume rendering
US10249087B2 (en) * 2016-01-29 2019-04-02 Magic Leap, Inc. Orthogonal-projection-based texture atlas packing of three-dimensional meshes
WO2018005939A1 (en) * 2016-07-01 2018-01-04 The Board Of Regents Of The University Of Texas System Methods, apparatuses, and systems for creating 3-dimensional representations exhibiting geometric and surface characteristics of brain lesions
US10115231B1 (en) * 2017-06-30 2018-10-30 Dreamworks Animation Llc Traversal selection of components for a geometric model
CN111032319B (zh) 2017-08-31 2022-03-15 通用电气公司 编码体积数据以支持可信交易交付
US20200175756A1 (en) * 2018-12-03 2020-06-04 Intuitive Research And Technology Corporation Two-dimensional to three-dimensional spatial indexing
US11069125B2 (en) * 2019-04-09 2021-07-20 Intuitive Research And Technology Corporation Geometry buffer slice tool
US11222467B2 (en) 2019-09-19 2022-01-11 Prevu3D Technologies Inc. Methods and systems for extracting data from virtual representation of three-dimensional visual scans
US11341717B2 (en) * 2020-01-03 2022-05-24 Medtronic, Inc. Graphical display of volume of activation
EP3886056A1 (de) 2020-03-16 2021-09-29 Stryker Australia PTY LTD Automatisierte schnittplanung zum entfernen von erkrankten bereichen
EP3896652A1 (de) * 2020-04-16 2021-10-20 Koninklijke Philips N.V. Fehlererkennung zur segmentierung eines bildes

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796790B2 (en) 2003-10-17 2010-09-14 Koninklijke Philips Electronics N.V. Manual tools for model based image segmentation
JP2007518484A (ja) 2004-01-19 2007-07-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 変形可能な表面のセグメント化のリアルタイムなユーザ対話処理
US20060177133A1 (en) 2004-11-27 2006-08-10 Bracco Imaging, S.P.A. Systems and methods for segmentation of volumetric objects by contour definition using a 2D interface integrated within a 3D virtual environment ("integrated contour editor")
EP1750226A3 (de) 2005-08-01 2007-12-26 Siemens Medical Solutions USA, Inc. Bearbeitung von vorsegmentierten Bildern/Volumen mittels Random-Walker-Verfahren mit Mehrfachmarkierung oder Graph-Cut-Segmentierung
EP2044576A2 (de) * 2006-07-17 2009-04-08 Koninklijke Philips Electronics N.V. Effiziente benutzerinteraktion mit polygonalen maschen zur segmentierung medizinischer bilder
US8150119B2 (en) * 2008-01-24 2012-04-03 Siemens Aktiengesellschaft Method and system for left ventricle endocardium surface segmentation using constrained optimal mesh smoothing
WO2009111753A2 (en) 2008-03-06 2009-09-11 Edda Technology, Inc. System and method for interactive liver lobe segmentation
JP5451871B2 (ja) 2009-04-03 2014-03-26 コーニンクレッカ フィリップス エヌ ヴェ 相互作用的なライブメッシュの区分けのためのシステム及び方法
US8923590B2 (en) * 2011-01-20 2014-12-30 Siemens Aktiengesellschaft Method and system for 3D cardiac motion estimation from single scan of C-arm angiography

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
35 U. S. C. § 112, Paragraph sechs

Also Published As

Publication number Publication date
US20130050208A1 (en) 2013-02-28
JP2013043085A (ja) 2013-03-04
US8477153B2 (en) 2013-07-02
JP6133026B2 (ja) 2017-05-24

Similar Documents

Publication Publication Date Title
DE102012107529A1 (de) Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes
DE102008032006B4 (de) Verfahren zur Steurung der Bildaufnahme bei einer Bildaufnahmeeinrichtung, sowie eine Bildaufnahmeeinrichtung
DE102008023283B4 (de) Verfahren und System zur Segmentierung von schlauchförmigen Strukturen in 3D-Bildern
EP2038847B1 (de) Verfahren und vorrichtung zur darstellung von 3d bilddatensätzen auf 2d bildern
DE212011100130U1 (de) Auf gleicher Ebene und interaktiv stattfindende Oberflächennetz-Anpassung
DE102007009203B4 (de) Verfahren zur Bestimmung oder Anpassung eines Shims zur Homogenisierung eines Magnetfeldes einer Magnetresonanzeinrichtung und zugehörige Magnetresonanzeinrichtung
DE19955690A1 (de) System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation
DE4117117A1 (de) Dreidimensionale darstellung von raeumlichen strukturen
DE102007008224A1 (de) System und Verfahren für eine Inkontext-Volumenvisualisierung unter Verwendung eines virtuellen Schnitts
DE102009043868A1 (de) Halbautomatische Registrierung von Daten auf der Basis eines hyrarchischen Netzes
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE102011076930A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Volumendaten eines Objektes
DE102017214447A1 (de) Planare Visualisierung von anatomischen Strukturen
DE102009042326A1 (de) Interaktive Veränderung der Darstellung eines mittels Volume Rendering dargestellten Objekts
DE102011076929A1 (de) Verfahren und Vorrichtung zur Darstellung von Volumendaten für eine Untersuchung von Dichteeigenschaften
DE102011076878A1 (de) Verfahren und Vorrichtung zur effizienten Editierung eines dreidimensionalen Volumens mittels Ray Casting
DE112022001343T5 (de) Vorschlag für einen Rand mittels neuronalem Netzwerkwerk
EP1869620B1 (de) Verfahren zur verarbeitung von bild- und volumendaten auf basis statistischer modelle
DE10160206A1 (de) Verfahren und Vorrichtung zur Erstellung einer isolierten Darstellung von Körperstrukturen
DE102019101629A1 (de) Vorrichtung zur erzeugung entwickelter bilder von rippen, verfahren und programm
DE102012217089A1 (de) Schichtdarstellung von Volumendaten
DE102010034918A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Güteeinformation für eine Röntgenbildgebung
DE102020213305A1 (de) Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten
DE102014223658A1 (de) Verfahren zum Bestimmen eines Ergebnisbildes, Computerprogramm, maschinenlesbarer Datenträger sowie bildgebendes Gerät
WO2020057849A1 (de) Computerimplementiertes verfahren zur komprimierung von messdaten aus einer messung eines messvolumens

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee