DE102006021118A1 - Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich - Google Patents

Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich Download PDF

Info

Publication number
DE102006021118A1
DE102006021118A1 DE102006021118A DE102006021118A DE102006021118A1 DE 102006021118 A1 DE102006021118 A1 DE 102006021118A1 DE 102006021118 A DE102006021118 A DE 102006021118A DE 102006021118 A DE102006021118 A DE 102006021118A DE 102006021118 A1 DE102006021118 A1 DE 102006021118A1
Authority
DE
Germany
Prior art keywords
rendered
anatomical structures
rendering
mesh
surrounding area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102006021118A
Other languages
English (en)
Other versions
DE102006021118B4 (de
Inventor
Shmuel Aharon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of DE102006021118A1 publication Critical patent/DE102006021118A1/de
Application granted granted Critical
Publication of DE102006021118B4 publication Critical patent/DE102006021118B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computing Systems (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)

Abstract

Systeme und Verfahren zum Anzeigen anatomischer Strukturen und ihres Umgebungsbereichs sind offenbart. Für einen Betrachtungspunkt werden die anatomischen Strukturen getrennt von ihrer Umgebung gerendert und gespeichert. Der Umgebungsbereich der anatomischen Struktur innerhalb eines Betrachtungs-Pyramidenstumpfes wird extrahiert, interpoliert und gerendert. Die gerenderten anatomischen Strukturen und das berechnete Bild der Umgebung werden zu einem kompletten Rendering der anatomischen Strukturen mit den nahen Umgebungsbereichen kombiniert.

Description

  • Querverweis auf verwandte Anmaldungen
  • Diese Anmeldung beansprucht die Priorität der vorläufigen US-Patentanmeldung 60/677,791 vom 4. Mai 2005, die hierin durch Bezugnahme beinhaltet ist.
  • Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft die Visualisierung von anatomischen Strukturen und spezieller die Visualisierung von Strukturen, wobei ihr naher Umgebungsbereich sichtbar ist.
  • Das Rendern anatomischer Strukturen, wie beispielsweise Organen, ist ein wichtiges Visualisierungswerkzeug für viele medizinische Anwendungen. Diese medizinischen Anwendungen umfassen die Eingriffsplanung, nicht-invasive Diagnose und bildgeführte Operationen.
  • Die anatomischen Strukturen können unter Verwendung einer geeigneten Übertragungsfunktion direkt von einer zuvor berechneten Segmentierungsmaske oder von einer zuvor erzeugten Oberfläche (Polygonmaschennetz) gerendert werden. Alle diese Rendering-Techniken liefern eine detaillierte Visualisierung der anatomischen Struktur, blenden aber den Bereich, der diese Strukturen umgibt, vollständig aus dem Bild aus. Dieses Fehlen von Informationen des Umgebungsbereichs reduziert die Effektivität der Visualisierung beträchtlich und macht es schwierig, den exakten Ort und die Ausrichtung der visualisierten Strukturen zu identifizieren. Beispielsweise kann man Koronarienbaumverzweigungen rendern. Wenn jedoch lediglich die Koronarienbäume sichtbar sind, wird es schwierig, zwischen der linken und der rechten Seite zu unterscheiden, oder wo oben und unten ist. Es wird sehr wichtig, die Koronarienbäume im Zusammenhang mit ihrem Umgebungsbereich zu rendern. Wenn man in der Lage ist, die nahen Umgebungsstrukturen von Koronarien, wie beispielsweise die Herzkammern und -muskeln zu visualisieren, kann man die Ausrichtung und die Position der Koronarien im Körper korrekt identifizieren.
  • Das direkte Rendern anatomischer Strukturen und ihrer nahen Umgebung ist nicht möglich ohne beträchtliche Visualisierungsartefakte. Beispielsweise kann man die anatomische Struktur rendern und anschließend das gesamte Volumen außerhalb der Bereiche, die durch die anatomische Struktur besetzt sind, rendern. Obwohl dies einige Informationen über den Umgebungsbereich liefern wird, wird es viele Probleme und Artefakte verursachen. Zunächst wird das Rendern des gesamten Volumens Informationen aus Bereichen anzeigen, die weit von der interessierenden anatomischen Struktur entfernt sind, während wichtige nahe liegende Informationen ausgeblendet werden. Zum zweiten wird die Kombination von Renderings aus Bereichen unterschiedlicher Entfernungen vom Beobachter (Tiefe) in einem Bild Aliasing-Artefakte auf dem Bild hervorrufen.
  • Dementsprechend werden neue Rendering-Verfahren benötigt, die ein Rendering des nahen Umgebungsbereichs zusammen mit den interessierenden anatomischen Strukturen liefern, ohne Artefakte zu erzeugen oder nahe gelegene Informationen auszublenden.
  • Zusammenfassung der Erfindung
  • Ein Gesichtspunkt der vorliegenden Erfindung liefert eine neue Rendering-Technik und ein Rendering-System, die ein Rendering des nahen Umgebungsbereichs zusammen mit den anatomischen Strukturen liefern, ohne Artefakte zu erzeugen oder nahe gelegene Informationen auszublenden. Die Implementierung kann durchgeführt werden unter Verwendung der OpenGL- oder DirectX-Anwendungsprogrammschnittstellen.
  • Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren zum Bearbeiten medizinischer Bilddaten geschaffen, das für das glatte Rendern einer oder mehrerer anatomischer Strukturen zusammen mit einem nahen Umgebungsbereich aus 3D-Bilddaten von einem definierten Betrachtungspunkt aus geeignet ist, wobei die eine oder die mehreren anatomischen Strukturen vom nahen Umgebungsbereich getrennt werden. Das Verfahren umfasst die folgenden Schritte: Erzeugen eines Bilds durch Rendern der einen oder der mehreren getrennten anatomischen Strukturen von dem definierten Betrachtungspunkt aus, Speichern einer Tiefeninformation der gerenderten anatomischen Strukturen und Speichern des gerenderten Bilds der anatomischen Strukturen; Extrahieren einer Grenze zwischen der gerenderten einen oder den gerenderten mehreren anatomischen Strukturen und des nahen Umgebungsbereichs unter Verwendung der Tiefeninformation der gerenderten anatomischen Strukturen; Rendern des nahen Umgebungsbereichs von dem definierten Betrachtungspunkt aus; und Kombinieren der Renderings der anatomischen Strukturen und des nahen Umgebungsbereichs.
  • Gemäß einem anderen Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem entsprechende Tiefeninformationen der nahen Ebene der gerenderten anatomischen Strukturen als ein erster Z-Puffer gespeichert werden, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden.
  • Gemäß einem weiteren Gesichtpunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem das Rendern des nahen Umgebungsbereichs die folgenden Schritte umfasst: Extrahieren aller Pixel aus dem ersten Z-Puffer, die auf einer Grenze zwischen dem sichtbaren und dem nicht-sichtbaren Bereich liegen; Speichern der Bildkoordinaten eines jedes Grenzpixels in einer 2D-Anordnung; Hinzufügen von vier Punkten zur 2D-Anordnung gemäß dem Visualisierungs-Pyramidenstumpf; Erzeugen eines 2D-Maschennetzes gemäß den 2D-Anordnungspunkten; und Projizieren des 2D-Maschennetzes auf ein 3D-Maschennetz durch Zuordnen einer entsprechenden 3D-Koordinate zu jedem der Punkte, die das 2D-Maschennetz definieren.
  • Gemäß einem anderen Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem das Rendern des nahen Umgebungsbereichs außerdem den Schritt umfasst, Punkte auf dem 3D-Maschennetz zu interpolieren, um Pixel im nahen Umgebungsbereich zu bestimmen.
  • Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem das 2D-Maschennetz durch Anwendung von Delaunay-Triangulation erzeugt wird.
  • Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem eine zweite Tiefeninformation der nahen Ebene mit den folgenden Schritten erzeugt wird: Rendern des 3D-Maschennetzes und Speichern der entsprechenden Tiefeninformation der nahen Ebene des gerenderten Maschennetzes als ein zweiter Z-Puffer, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden; und Setzen der Pixel, die den sichtbaren Pixeln im ersten Z-Puffer entsprechen, auf den Wert 0.
  • Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem die anatomischen Strukturen mit dem nahen Umgebungsbereich aus 3D-Bilddaten gerendert werden und das die folgenden Schritte umfasst:
    Erzeugen eines Bilds durch Rendern der 3D-Bilddaten unter Verwendung des zweiten Z-Puffers als Eintrittspunkte der Rendering-Strahlen in die Daten; Ausbreiten der Strahlen über eine spezifizierte Tiefenentfernung in die Daten;
    Überspringen der Pixel mit Werten des zweiten Z-Puffers von 1; und Zuordnen des entsprechenden Werts von der gespeicherten gerenderten anatomischen Struktur zu jedem Pixel mit einem Wert des zweiten Z-Puffers von 0.
  • Gemäß einem anderen Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem die Tiefeninformation einer entfernten Ebene verwendet wird, um die Austrittspunkte der Rendering-Strahlen aus den Daten zu bestimmen.
  • Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein System vorgeschlagen, das einen Prozessor und Software, die auf dem Prozessor ausführbar ist, aufweist, um die zuvor erwähnten Aufgaben und Verfahren durchzuführen.
  • Diese Schritte können auch in einem System mit einer Graphikprozessoreinheit durchgeführt werden.
  • Beschreibung der Zeichnungen
  • 1 ist ein Ablaufdiagramm, das die Schritte des erfindungsgemäßen Verfahrens zeigt.
  • 2 zeigt ein gerendertes Bild von Koronararterien mit dem Umgebungsbereich.
  • 3 zeigt die Tiefeninformation (Z-Puffer) der nahen Ebene der gerenderten Koronararterien.
  • 4 zeigt das Delaunay-Dreiecksmaschennetz, das den Umgebungsbereich der Koronararterien darstellt.
  • 5 zeigt Details eines Delaunay-Dreiecksmaschennetzes.
  • 6 zeigt die projizierten Arterien (linke und rechte Koronararterie) in einem Bild im gerenderten Umfeld ihres Umgebungsbereichs.
  • 7 zeigt ein Diagramm eines Systems gemäß der vorliegenden Erfindung.
  • Beschreibung einer bevorzugten Ausführungsform
  • Um die verschiedenen Aspekte der vorliegenden Erfindung zu illustrieren, wird das Rendern von Blutgefäßen im Herzen und spezieller von linken und rechten Koronararterien in ihrer nahen Umgebung benutzt. Das Rendern von Koronararterien im Zusammenhang mit den umgebenden anatomischen Strukturen ohne Verformung, Ausblenden oder Einführen von Visualisierungsartefakten ist bekannt. Im Folgenden wird ein dreidimensionaler Bilddatensatz, der durch ein bekanntes medizinisches Bildgebungsgerät erhalten wurde, bearbeitet, um einem Anwender ein visuell hilfreiches Bild entsprechend dem Bilddatensatz zu präsentieren. Insbesondere können Blutgefäße mit ihrer Umgebungsinformation angezeigt werden. Der Bilddatensatz kann beispielsweise durch eine Magnetresonanzangiographie (MRA) des gesamten Herzens erhalten werden. Verständlicherweise können auch dreidimensionale Datensätze verwendet werden, die durch andere Mittel erhalten werden. D.h., die vorliegende Erfindung ist nicht auf spezielle Arten dreidimensionaler Datensätze, Datenformate, Voxel- oder Pixelauflösungen oder dergleichen beschränkt. Der dreidimensionale Datensatz kann betrachtet werden als die Beschreibung einer Mehrzahl spezieller Orte im Raum, von denen jeder einen entsprechenden Intensitätswert besitzt.
  • Gemäß einem Gesichtpunkt der vorliegenden Erfindung wird nun ein Rendering-Verfahren beschrieben und illustriert, das fünf Schritte umfasst. Die Schritte sind auch in einem Ablaufdiagramm in 1 dargestellt.
  • In Schritt 101 werden die anatomischen Strukturen von Interesse im Datenvolumen unter Verwendung einer bevorzugten Rendering-Technik gerendert. Beispielsweise kann die Maximalintensitätsprojektion (MIP) als Rendering-Technik verwendet werden.
  • Während des Renderns in Schritt 101 wird der Abstand eines jeden Voxels, der auf dem gerenderten Bild vom Betrachtungspunkt (Kamera) aus angezeigt wird, im Z-Puffer gespeichert. Dies liefert die Tiefe der nahen Ebene für jedes sichtbare Pixel auf dem gerenderten Bild. Nicht-sichtbare Pixel werden auf den Wert 1 gesetzt. Dies ist in 2 dargestellt, wobei die Koronararterien ohne Information hinsichtlich ihrer umgebenden anatomischen Strukturen gerendert und angezeigt werden. Im Falle von Mischoperationen, also wenn mehr als ein Voxel zum Ausgangsbild beiträgt, wird der Abstand zum nähesten beitragenden Voxel gespeichert. Die Ergebnisse bilden ein detailliertes Rendering der anatomischen Strukturen und des entsprechenden Z-Puffers der nahen Ebene. Diese Rendering-Ergebnisse werden zur späteren Verwendung gespeichert. Dies ist in 3 dargestellt, wobei die Tiefe von einem definierten Betrachtungspunkt aus als Graustufe dargestellt ist.
  • Als nächstes wird Schritt 102 beschrieben. Der Z-Puffer aus Schritt 101 wird bearbeitet, so dass alle Pixel, die auf der Grenze zwischen dem sichtbaren und nicht-sichtbaren Bereich liegen, extrahiert werden. Dies kann ausgeführt werden, indem die Nachbarpixel eines gegebenen Pixels überprüft werden. Wenn alle diese Nachbarpixel entweder sichtbar oder nichtsichtbar sind, wird das Pixel ignoriert. Ansonsten ist das Pixel ein Grenzpixel, und seine Bildkoordinaten werden in einer zweidimensionalen (2D) Anordnung von Punkten gespeichert.
  • Zusätzliche vier Punkte werden auf der Basis einer Begrenzungsbox hinzugefügt, die den Teil der Daten definiert, den man visualisieren möchte. Diese Begrenzungsbox ist auch als Visualisierungs-Pyramidenstumpf bekannt. Diese Punkte werden üblicherweise irgendwo in der Nähe der Ecken des Z-Puffer-Bilds hinzugefügt.
  • Nun wird Schritt 103 beschrieben. Anschließend wird ein 2D-Maschennetz aus der Punkteanordnung, die in Schritt 102 erzeugt wurde, erzeugt. Das 2D-Maschennetz kann unter Verwendung von Delaunay-Triangulation erzeugt werden. Dies ist in 4 dargestellt, die die Delaunay-Dreiecke innerhalb der Begrenzungsbox mit den Grenzen 401, 402, 403 und 404 zeigt. Die Triangulation ist im näheren Detail in 5 dargestellt. Das Maschennetz wird anschließend ins Dreidimensionale (3D) zurückprojiziert, indem jedem Punkt seine 3D-Koordinate hinzugefügt wird, die aus dem entsprechenden Tiefenwert im Z-Puffer und der vorgegebenen Betrachtungsrichtung/-position berechnet wird.
  • Nun wird Schritt 104 beschrieben. Der Z-Puffer wird nun wie folgt für den nächsten Rendering-Schritt festgesetzt. Die Werte aller Pixel, die sichtbaren Pixeln im Z-Puffer aus Schritt 101 entsprechen (Pixel mit Z-Puffer-Wert von kleiner als 1) werden auf 0 gesetzt. Andere Pixel werden auf den Wert 1 gesetzt. Unter Verwendung dieses erzeugten Z-Puffers wird anschließend das in Schritt 103 erzeugte 3D-Dreiecksmaschennetz unter Verwendung der "kleiner als"-Tiefenfunktion gerendert, und der neu erzeugte Z-Puffer wird gespeichert. Dies führt zu einem Z-Puffer mit Werten, die linear interpoliert sind, um eine glatte Änderung in der Tiefe zwischen den Kanten von sichtbaren Teilen der anatomischen Strukturen zu einer gewissen vorgegebenen Tiefe in ihrem Umgebungsbereich zu schaffen.
  • Im Folgenden wird Schritt 105 beschrieben. Das Volumen wird nun in das gerenderte Bild, das in Schritt 101 gespeichert wurde, unter Verwendung eines vorgegebenen Rendering-Algorithmus gerendert. Die Z-Puffer-Werte aus Schritt 104 liefern die Eintrittspunkte in die Volumendaten. Pixel mit Z-Puffer-Werten, die 0 entsprechen, werden übersprungen, da sie sichtbaren Teilen der gerenderten anatomischen Strukturen entsprechen, die bereits im gerenderten Bild (aus Schritt 101) definiert sind. Die Strahlen werden bis zu einer speziellen Tiefe in das Volumen ausgebreitet. Das Ergebnis ist ein vollständiges Rendering der anatomischen Strukturen, wobei der Umgebungsbereich glatt um die nicht-sichtbaren Teile ohne Bildartefakte eingefügt ist. Alternativ kann die entfernte Ebene in einem Z-Puffer berechnet werden, ähnlich wie die nahe Ebene erzeugt wurde, und dies wird den Austrittspunkt aller Strahlen aus dem Volumen liefern.
  • Das Endergebnis ist in 6 dargestellt, die die verformungsfreie Projektion der zwei Koronararterienbäume 601 und 602 im Zusammenhang mit den umgebenden anatomischen Strukturen 603 des Herzens zeigt.
  • 7 zeigt ein Computersystem, das gemäß einem Gesichtspunkt der vorliegenden Erfindung verwendet werden kann. Das System wird mit Daten 701 versehen, die das darzustellende Bild repräsentieren. Ein Befehlssatz oder -programm 702, der die erfindungsgemäßen Verfahren aufweist, ist vorgesehen und wird mit den Daten in einem Prozessor 703 kombiniert, der die Befehle aus 702, angewandt auf die Daten 701, verarbeiten kann und das daraus resultierende Bild auf einem Display 704 anzeigt. Die Befehle 702 können auch die Befehle umfassen, anatomische Strukturen von Interesse aus den Volumendaten zu extrahieren. Der Prozessor kann eine bestimmte Hardware, eine GPU, CPU oder jede beliebige andere Rechnereinheit sein, die die Befehle von 702 ausführen kann. Eine Eingabevorrichtung 705 wie eine Maus, eine Rollkugel oder eine andere Eingabevorrichtung ermöglicht es dem Anwender, beispielsweise die Betrachtungsrichtung auszuwählen und den Anzeigeprozess zu starten. Folglich liefert das in 7 dargestellte System ein interaktives System für das Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich.
  • In dieser Beschreibung wird der Begriff "Pixel" verwendet, um eine Datenstruktur zu bezeichnen, die verwendet wird, um ein Bild zusammenzusetzen. Obwohl die Bezeichnung typischerweise ein zweidimensionales Element bezeichnet, soll zum Zwecke der nachfolgenden Offenbarung "Pixel" auch dreidimensionale Bildelemente, d.h. Voxel, einschließen.
  • Auch wenn grundlegende neue Merkmale der Erfindung, angewendet auf spezielle Ausführungsformen, gezeigt, beschrieben und herausgestellt wurden, können verschiedene Weglassungen und Ersetzungen sowie Veränderungen in der Form und den Details der illustrierten Vorrichtung und in deren Betrieb von Fachleuten vorgenommen werden, ohne vom Umfang der Erfindung abzuweichen. Es ist daher beabsichtigt, dass eine Beschränkung lediglich durch den Schutzumfang der beigefügten Ansprüche erfolgt.

Claims (19)

  1. Verfahren zum Bearbeiten medizinischer Bilddaten für das glatte Rendern einer oder mehrerer anatomischer Strukturen mit einem nahen Umgebungsbereich aus 3D-Bilddaten von einem definierten Betrachtungspunkt aus, wobei die eine oder die mehreren anatomischen Strukturen von dem nahen Umgebungsbereich getrennt sind, mit folgenden Schritten: Erzeugen eines Bilds durch Rendern der einen oder der mehreren getrennten anatomischen Strukturen von dem definierten Betrachtungspunkt aus und Speichern einer Tiefeninformation der gerenderten anatomischen Strukturen, sowie Speichern des gerenderten Bilds der anatomischen Strukturen; Extrahieren einer Grenze zwischen der gerenderten einen oder den gerenderten mehreren anatomischen Strukturen und dem nahen Umgebungsbereich unter Verwendung der Tiefeninformation der gerenderten einen oder mehreren anatomischen Strukturen; Rendern des nahen Umgebungsbereichs von dem definierten Betrachtungspunkt aus; und Kombinieren der Renderings der einen oder mehreren anatomischen Strukturen und des nahen Umgebungsbereichs.
  2. Verfahren nach Anspruch 1, wobei die entsprechende Tiefeninformation der nahen Ebene der gerenderten einen oder mehreren anatomischen Strukturen als ein erster Z-Puffer gespeichert wird, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden.
  3. Verfahren nach Anspruch 2, wobei das Rendern des nahen Umgebungsbereichs die folgenden Schritte umfasst: Extrahieren der Pixel aus dem ersten Z-Puffer, die auf einer Grenze zwischen dem sichtbaren und nichtsichtbaren Bereich liegen; Speichern der Bildkoordinaten eines jeden Grenzpixels in einer 2D-Anordnung; Hinzufügen von vier Punkten zur 2D-Anordnung gemäß dem Visualisierungs-Pyramidenstumpf; Erzeugen eines 2D-Maschennetzes gemäß den 2D-Anordnungspunkten; und Projizieren des 2D-Maschennetzes auf ein 3D-Maschennetz, indem jedem der Punkte, die das 2D-Maschennetz definieren, seine entsprechende 3D-Koordinate zugeordnet wird.
  4. Verfahren nach Anspruch 3, wobei das Rendern des nahen Umgebungsbereichs außerdem den Schritt aufweist, Punkte auf dem 3D-Maschennetz zu interpolieren, um Pixel im nahen Umgebungsbereich zu bestimmen.
  5. Verfahren nach Anspruch 3, wobei das Rendern des nahen Umgebungsbereichs außerdem die Schritte aufweist, Koordinaten von Punkten auf dem 3D-Maschennetz zu interpolieren und auf die medizinischen Bilddaten auf der Basis der Koordinaten zuzugreifen, um Pixel im nahen Umgebungsbereich zu bestimmen.
  6. Verfahren nach Anspruch 3, wobei das 2D-Maschennetz erzeugt wird, indem Delaunay-Triangulation angewendet wird.
  7. Verfahren nach Anspruch 3, wobei eine zweite Tiefeninformation der nahen Ebene mit folgenden Schritten erzeugt wird: Rendern des 3D-Maschennetzes und Speichern der entsprechenden Tiefeninformation der nahen Ebene des gerenderten Maschennetzes als ein zweiter Z-Puffer, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden; und Setzen der Pixel, die den sichtbaren Pixeln im ersten Z-Puffer entsprechen, auf den Wert 0.
  8. Verfahren nach Anspruch 7, wobei die eine oder die mehreren anatomischen Strukturen mit dem nahen Umgebungsbereich aus 3D-Bilddaten mit folgenden Schritten gerendert werden: Erzeugen eines Bilds durch Rendern der 3D-Bilddaten unter Verwendung des zweiten Z-Puffers als Eintrittspunkte der Rendering-Strahlen in die Daten; Ausbreiten der Strahlen über eine spezifizierte Tiefenentfernung in die Daten; Überspringen der Pixel mit einem Wert des zweiten Z-Puffers von 1; und Zuordnen des entsprechenden Werts von der einen gespeicherten gerenderten oder den mehreren gespeicherten gerenderten anatomischen Strukturen zu jedem Pixel mit einem Wert des zweiten Z-Puffers von 0.
  9. Verfahren nach Anspruch 1, wobei die Tiefeninformation der entfernten Ebene für die Bestimmung der Austrittspunkte der Rendering-Strahlen aus den Daten verwendet wird.
  10. System zum Bearbeiten medizinischer Bilddaten für das glatte Rendern einer oder mehrerer anatomischer Strukturen mit einem nahen Umgebungsbereich aus 3D-Bilddaten von einem definierten Betrachtungspunkt aus, wobei die eine oder mehreren anatomischen Strukturen von dem nahen Umgebungsbereich getrennt sind, mit: einem Prozessor; einer Software, die auf dem Prozessor ausführbar ist, zum: Erzeugen eines Bilds durch Rendern der einen oder der mehreren getrennten anatomischen Strukturen von dem definierten Betrachtungspunkt aus und Speichern einer Tiefeninformation der gerenderten einen oder der gerenderten mehreren anatomischen Strukturen, sowie Speichern des gerenderten Bilds der einen oder mehreren anatomischen Strukturen; Extrahieren einer Grenze zwischen der gerenderten einen oder den gerenderten mehreren anatomischen Strukturen und des nahen Umgebungsbereichs unter Verwendung der Tiefeninformation der gerenderten einen oder mehreren anatomischen Strukturen; Rendern des nahen Umgebungsbereichs von dem definierten Betrachtungspunkt aus; und Kombinieren der Renderings der einen oder mehreren anatomischen Strukturen und des nahen Umgebungsbereichs.
  11. System nach Anspruch 10, wobei entsprechende Tiefeninformation der nahen Ebene der gerenderten einen oder mehreren anatomischen Strukturen als ein erster Z-Puffer gespeichert wird, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden.
  12. System nach Anspruch 11, wobei das Rendern des nahen Umgebungsbereichs umfasst: Extrahieren der Pixel aus dem ersten Z-Puffer, die auf einer Grenze zwischen dem sichtbaren und nichtsichtbaren Bereich liegen; Speichern der Bildkoordinaten eines jeden Grenzpixels in einer 2D-Anordnung; Hinzufügen von vier Punkten zu der 2D-Anordnung gemäß dem Visualisierungs-Pyramidenstumpf; Erzeugen eines 2D-Maschennetzes gemäß den 2D-Anordnungspunkten; und Projizieren des 2D-Maschennetzes auf ein 3D-Maschennetz, indem jedem der Punkte, die das 2D-Maschennetz definieren, seine entsprechende 3D-Koordinate zugeordnet wird.
  13. System nach Anspruch 12, wobei das Rendern des nahen Umgebungsbereichs außerdem den Schritt umfasst, Punkte auf dem 3D-Maschennetz zu interpolieren, um Pixel im nahen Umgebungsbereich zu bestimmen.
  14. System nach Anspruch 12, wobei das Rendern des nahen Umgebungsbereichs außerdem die Schritte umfasst, Koordinaten von Punkten auf dem 3D-Maschennetz zu interpolieren und auf die medizinischen Bilddaten auf der Basis der Koordinaten zuzugreifen, um Pixel im nahen Umgebungsbereich zu bestimmen.
  15. System nach Anspruch 12, wobei das 2D-Maschennetz durch Anwendung von Delaunay-Triangulation erzeugt wird.
  16. System nach Anspruch 12, wobei die zweite Tiefeninformation der nahen Ebene durch folgende Schritte erzeugt wird: Rendern des 3D-Maschennetzes und Speichern der entsprechenden Tiefeninformation der nahen Ebene des gerenderten Maschennetzes als ein zweiter Z-Puffer, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden; und Setzen der Pixel, die den sichtbaren Pixeln im ersten Z-Puffer entsprechen, auf den Wert 0.
  17. System nach Anspruch 16, wobei die eine oder die mehreren anatomischen Strukturen mit dem nahen Umgebungsbereich aus 3D-Bilddaten mit folgenden Schritten gerendert werden: Erzeugen eines Bilds durch Rendern der 3D-Bilddaten unter Verwendung des zweiten Z-Puffers als Eintrittspunkte der Rendering-Strahlen in die Daten; Ausbreiten der Strahlen über eine spezifizierte Tiefenentfernung in die Daten; Überspringen der Pixel mit Werten des zweiten Z-Puffers von 1; und Zuordnen des entsprechenden Werts aus der gespeicherten gerenderten einen oder den mehreren anatomischen Strukturen zu jedem Pixel mit einem Wert des zweiten Z-Puffers von 0.
  18. System nach Anspruch 10, wobei die Tiefeninformation der entfernten Ebene für die Bestimmung der Austrittspunkte der Rendering-Strahlen aus den Daten verwendet wird.
  19. System nach Anspruch 10, wobei der Prozessor eine Graphikprozessoreinheit ist.
DE102006021118A 2005-05-04 2006-05-04 Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich Active DE102006021118B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US67779105P 2005-05-04 2005-05-04
US60/677,791 2005-05-04
US11/414,892 2006-05-01
US11/414,892 US7893938B2 (en) 2005-05-04 2006-05-01 Rendering anatomical structures with their nearby surrounding area

Publications (2)

Publication Number Publication Date
DE102006021118A1 true DE102006021118A1 (de) 2007-01-04
DE102006021118B4 DE102006021118B4 (de) 2008-07-10

Family

ID=37394940

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006021118A Active DE102006021118B4 (de) 2005-05-04 2006-05-04 Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich

Country Status (2)

Country Link
US (1) US7893938B2 (de)
DE (1) DE102006021118B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100293505A1 (en) * 2006-08-11 2010-11-18 Koninklijke Philips Electronics N.V. Anatomy-related image-context-dependent applications for efficient diagnosis
US20080278490A1 (en) * 2007-05-11 2008-11-13 Claron Technology Inc. Anatomical context presentation
US8019042B2 (en) * 2008-04-22 2011-09-13 Siemens Medical Solutions Usa, Inc. Medical imaging processing and care planning system
DE102009053471B4 (de) * 2009-11-16 2018-08-02 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Identifizierung und Zuordnung von Koronarkalk zu einem Herzkranzgefäß sowie Computerprogrammprodukt
US8923590B2 (en) * 2011-01-20 2014-12-30 Siemens Aktiengesellschaft Method and system for 3D cardiac motion estimation from single scan of C-arm angiography
DE102012100848B4 (de) 2012-02-01 2019-05-29 Hans Pfriem System und Verfahren zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
US9836879B2 (en) * 2013-04-16 2017-12-05 Autodesk, Inc. Mesh skinning technique
DE102015112411A1 (de) 2015-07-29 2017-02-02 Universal Consulting GmbH System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
US10878564B2 (en) * 2019-04-12 2020-12-29 Zebra Medical Vision Ltd. Systems and methods for processing 3D anatomical volumes based on localization of 2D slices thereof

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792840B2 (ja) * 1989-10-13 1995-10-09 インターナショナル・ビジネス・マシーンズ・コーポレーシヨン 画像生成方法及び装置
US5239591A (en) * 1991-07-03 1993-08-24 U.S. Philips Corp. Contour extraction in multi-phase, multi-slice cardiac mri studies by propagation of seed contours between images
US5365996A (en) * 1992-06-10 1994-11-22 Amei Technologies Inc. Method and apparatus for making customized fixation devices
US5568384A (en) * 1992-10-13 1996-10-22 Mayo Foundation For Medical Education And Research Biomedical imaging and analysis
US5798764A (en) * 1994-05-27 1998-08-25 Nec Corporation Method for determining the intersections of Delaunay partitioned tetrahedra with the boundary of a body to be analyzed
US5839440A (en) * 1994-06-17 1998-11-24 Siemens Corporate Research, Inc. Three-dimensional image registration method for spiral CT angiography
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
JPH08138078A (ja) * 1994-11-09 1996-05-31 Toshiba Medical Eng Co Ltd 画像処理装置
US5825908A (en) * 1995-12-29 1998-10-20 Medical Media Systems Anatomical visualization and measurement system
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US5986662A (en) * 1996-10-16 1999-11-16 Vital Images, Inc. Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging
US5926568A (en) * 1997-06-30 1999-07-20 The University Of North Carolina At Chapel Hill Image object matching using core analysis and deformable shape loci
US6061469A (en) * 1998-06-22 2000-05-09 Mitsubishi Electric Information Technology Center America, Inc (Ita) Object rendering system to produce X-ray like images
US6310620B1 (en) * 1998-12-22 2001-10-30 Terarecon, Inc. Method and apparatus for volume rendering with multiple depth buffers
US7386153B2 (en) * 2001-11-23 2008-06-10 Infinitt Co., Ltd. Medical image segmentation apparatus and method thereof
US6876362B1 (en) * 2002-07-10 2005-04-05 Nvidia Corporation Omnidirectional shadow texture mapping
US7639855B2 (en) * 2003-04-02 2009-12-29 Ziosoft, Inc. Medical image processing apparatus, and medical image processing method
JP4122314B2 (ja) * 2004-06-15 2008-07-23 ザイオソフト株式会社 投影画像処理方法、投影画像処理プログラム、投影画像処理装置

Also Published As

Publication number Publication date
US7893938B2 (en) 2011-02-22
US20060253021A1 (en) 2006-11-09
DE102006021118B4 (de) 2008-07-10

Similar Documents

Publication Publication Date Title
DE102006021118B4 (de) Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich
DE69632578T2 (de) Computer-grafiksystem zum schaffen und verbessern von texturabbildungssystemen
DE102006018348B4 (de) System und Verfahren für die verschmolzene PET-CT-Visualisierung zum Entfalten des Herzens
DE102005035012B4 (de) Hochleistungsschattierung von großen volumetrischen Daten unter Verwendung von partiellen Schirmraumableitungen
DE102009042328B4 (de) Effiziente Bestimmung von Lichteffekten beim Volume Rendering
DE19646194B4 (de) Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung
DE102004043676B4 (de) Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE112004000377B4 (de) Verfahren und Vorrichtung Bildsegmentierung in einer dreidimensionalen Arbeitsumgebung
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE69919497T2 (de) Verfahren und Gerät zur Volumendarstellung mit mehreren Tiefenpuffern
DE102006023633A1 (de) Gleichzeitige Projektion von mehrfach verzweigten Gefäßen und ihrer Umgebung auf einem einzigen Bild
DE60311865T2 (de) Bildverarbeitungssystem zur automatischen anpassung eines 3d-maschenmodels auf eine 3d-objektfläche
DE102009035441B4 (de) Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers
DE112005001755T5 (de) System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie
DE102005023964A1 (de) Volumenvisualisierung mittels Texturverschiebung
DE102013114176A1 (de) Tessellieren von Oberflächendatensegmenten beim kachelbasierten Rendern von Computergrafik
DE102012210521A1 (de) Unbeschnittene Zeit- und Linsen-Begrenzungen für verbesserte Probentest- Effizienz bei Bild-Rendering
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102006003126A1 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
DE19807013A1 (de) Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet
DE102009042326A1 (de) Interaktive Veränderung der Darstellung eines mittels Volume Rendering dargestellten Objekts
DE102005035796A1 (de) System und Verfahren zum Polygon-Glätten beim texturbasierten Volumen-Rendering
EP3155597B1 (de) Reformatierung unter berücksichtigung der anatomie eines zu untersuchenden objekts

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), US

R081 Change of applicant/patentee

Owner name: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), US

Free format text: FORMER OWNER: SIEMENS CORP. RESEARCH, INC., PRINCETON, N.J., US

Effective date: 20110214

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS CORP. RESEARCH, INC., PRINCETON, N.J., US

Effective date: 20110214

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), ISELIN, N.J., US

R082 Change of representative
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE