DE102006021118A1 - Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich - Google Patents
Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich Download PDFInfo
- Publication number
- DE102006021118A1 DE102006021118A1 DE102006021118A DE102006021118A DE102006021118A1 DE 102006021118 A1 DE102006021118 A1 DE 102006021118A1 DE 102006021118 A DE102006021118 A DE 102006021118A DE 102006021118 A DE102006021118 A DE 102006021118A DE 102006021118 A1 DE102006021118 A1 DE 102006021118A1
- Authority
- DE
- Germany
- Prior art keywords
- rendered
- anatomical structures
- rendering
- mesh
- surrounding area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000003484 anatomy Anatomy 0.000 title claims abstract description 56
- 238000009877 rendering Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012800 visualization Methods 0.000 claims description 11
- 210000004351 coronary vessel Anatomy 0.000 description 8
- 210000002216 heart Anatomy 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000002583 angiography Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 210000005242 cardiac chamber Anatomy 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000004165 myocardium Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computing Systems (AREA)
- High Energy & Nuclear Physics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Generation (AREA)
Abstract
Description
- Querverweis auf verwandte Anmaldungen
- Diese Anmeldung beansprucht die Priorität der vorläufigen US-Patentanmeldung 60/677,791 vom 4. Mai 2005, die hierin durch Bezugnahme beinhaltet ist.
- Hintergrund der Erfindung
- Die vorliegende Erfindung betrifft die Visualisierung von anatomischen Strukturen und spezieller die Visualisierung von Strukturen, wobei ihr naher Umgebungsbereich sichtbar ist.
- Das Rendern anatomischer Strukturen, wie beispielsweise Organen, ist ein wichtiges Visualisierungswerkzeug für viele medizinische Anwendungen. Diese medizinischen Anwendungen umfassen die Eingriffsplanung, nicht-invasive Diagnose und bildgeführte Operationen.
- Die anatomischen Strukturen können unter Verwendung einer geeigneten Übertragungsfunktion direkt von einer zuvor berechneten Segmentierungsmaske oder von einer zuvor erzeugten Oberfläche (Polygonmaschennetz) gerendert werden. Alle diese Rendering-Techniken liefern eine detaillierte Visualisierung der anatomischen Struktur, blenden aber den Bereich, der diese Strukturen umgibt, vollständig aus dem Bild aus. Dieses Fehlen von Informationen des Umgebungsbereichs reduziert die Effektivität der Visualisierung beträchtlich und macht es schwierig, den exakten Ort und die Ausrichtung der visualisierten Strukturen zu identifizieren. Beispielsweise kann man Koronarienbaumverzweigungen rendern. Wenn jedoch lediglich die Koronarienbäume sichtbar sind, wird es schwierig, zwischen der linken und der rechten Seite zu unterscheiden, oder wo oben und unten ist. Es wird sehr wichtig, die Koronarienbäume im Zusammenhang mit ihrem Umgebungsbereich zu rendern. Wenn man in der Lage ist, die nahen Umgebungsstrukturen von Koronarien, wie beispielsweise die Herzkammern und -muskeln zu visualisieren, kann man die Ausrichtung und die Position der Koronarien im Körper korrekt identifizieren.
- Das direkte Rendern anatomischer Strukturen und ihrer nahen Umgebung ist nicht möglich ohne beträchtliche Visualisierungsartefakte. Beispielsweise kann man die anatomische Struktur rendern und anschließend das gesamte Volumen außerhalb der Bereiche, die durch die anatomische Struktur besetzt sind, rendern. Obwohl dies einige Informationen über den Umgebungsbereich liefern wird, wird es viele Probleme und Artefakte verursachen. Zunächst wird das Rendern des gesamten Volumens Informationen aus Bereichen anzeigen, die weit von der interessierenden anatomischen Struktur entfernt sind, während wichtige nahe liegende Informationen ausgeblendet werden. Zum zweiten wird die Kombination von Renderings aus Bereichen unterschiedlicher Entfernungen vom Beobachter (Tiefe) in einem Bild Aliasing-Artefakte auf dem Bild hervorrufen.
- Dementsprechend werden neue Rendering-Verfahren benötigt, die ein Rendering des nahen Umgebungsbereichs zusammen mit den interessierenden anatomischen Strukturen liefern, ohne Artefakte zu erzeugen oder nahe gelegene Informationen auszublenden.
- Zusammenfassung der Erfindung
- Ein Gesichtspunkt der vorliegenden Erfindung liefert eine neue Rendering-Technik und ein Rendering-System, die ein Rendering des nahen Umgebungsbereichs zusammen mit den anatomischen Strukturen liefern, ohne Artefakte zu erzeugen oder nahe gelegene Informationen auszublenden. Die Implementierung kann durchgeführt werden unter Verwendung der OpenGL- oder DirectX-Anwendungsprogrammschnittstellen.
- Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren zum Bearbeiten medizinischer Bilddaten geschaffen, das für das glatte Rendern einer oder mehrerer anatomischer Strukturen zusammen mit einem nahen Umgebungsbereich aus 3D-Bilddaten von einem definierten Betrachtungspunkt aus geeignet ist, wobei die eine oder die mehreren anatomischen Strukturen vom nahen Umgebungsbereich getrennt werden. Das Verfahren umfasst die folgenden Schritte: Erzeugen eines Bilds durch Rendern der einen oder der mehreren getrennten anatomischen Strukturen von dem definierten Betrachtungspunkt aus, Speichern einer Tiefeninformation der gerenderten anatomischen Strukturen und Speichern des gerenderten Bilds der anatomischen Strukturen; Extrahieren einer Grenze zwischen der gerenderten einen oder den gerenderten mehreren anatomischen Strukturen und des nahen Umgebungsbereichs unter Verwendung der Tiefeninformation der gerenderten anatomischen Strukturen; Rendern des nahen Umgebungsbereichs von dem definierten Betrachtungspunkt aus; und Kombinieren der Renderings der anatomischen Strukturen und des nahen Umgebungsbereichs.
- Gemäß einem anderen Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem entsprechende Tiefeninformationen der nahen Ebene der gerenderten anatomischen Strukturen als ein erster Z-Puffer gespeichert werden, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden.
- Gemäß einem weiteren Gesichtpunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem das Rendern des nahen Umgebungsbereichs die folgenden Schritte umfasst: Extrahieren aller Pixel aus dem ersten Z-Puffer, die auf einer Grenze zwischen dem sichtbaren und dem nicht-sichtbaren Bereich liegen; Speichern der Bildkoordinaten eines jedes Grenzpixels in einer 2D-Anordnung; Hinzufügen von vier Punkten zur 2D-Anordnung gemäß dem Visualisierungs-Pyramidenstumpf; Erzeugen eines 2D-Maschennetzes gemäß den 2D-Anordnungspunkten; und Projizieren des 2D-Maschennetzes auf ein 3D-Maschennetz durch Zuordnen einer entsprechenden 3D-Koordinate zu jedem der Punkte, die das 2D-Maschennetz definieren.
- Gemäß einem anderen Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem das Rendern des nahen Umgebungsbereichs außerdem den Schritt umfasst, Punkte auf dem 3D-Maschennetz zu interpolieren, um Pixel im nahen Umgebungsbereich zu bestimmen.
- Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem das 2D-Maschennetz durch Anwendung von Delaunay-Triangulation erzeugt wird.
- Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem eine zweite Tiefeninformation der nahen Ebene mit den folgenden Schritten erzeugt wird: Rendern des 3D-Maschennetzes und Speichern der entsprechenden Tiefeninformation der nahen Ebene des gerenderten Maschennetzes als ein zweiter Z-Puffer, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden; und Setzen der Pixel, die den sichtbaren Pixeln im ersten Z-Puffer entsprechen, auf den Wert 0.
- Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem die anatomischen Strukturen mit dem nahen Umgebungsbereich aus 3D-Bilddaten gerendert werden und das die folgenden Schritte umfasst:
Erzeugen eines Bilds durch Rendern der 3D-Bilddaten unter Verwendung des zweiten Z-Puffers als Eintrittspunkte der Rendering-Strahlen in die Daten; Ausbreiten der Strahlen über eine spezifizierte Tiefenentfernung in die Daten;
Überspringen der Pixel mit Werten des zweiten Z-Puffers von 1; und Zuordnen des entsprechenden Werts von der gespeicherten gerenderten anatomischen Struktur zu jedem Pixel mit einem Wert des zweiten Z-Puffers von 0. - Gemäß einem anderen Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren geliefert, bei dem die Tiefeninformation einer entfernten Ebene verwendet wird, um die Austrittspunkte der Rendering-Strahlen aus den Daten zu bestimmen.
- Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein System vorgeschlagen, das einen Prozessor und Software, die auf dem Prozessor ausführbar ist, aufweist, um die zuvor erwähnten Aufgaben und Verfahren durchzuführen.
- Diese Schritte können auch in einem System mit einer Graphikprozessoreinheit durchgeführt werden.
- Beschreibung der Zeichnungen
-
1 ist ein Ablaufdiagramm, das die Schritte des erfindungsgemäßen Verfahrens zeigt. -
2 zeigt ein gerendertes Bild von Koronararterien mit dem Umgebungsbereich. -
3 zeigt die Tiefeninformation (Z-Puffer) der nahen Ebene der gerenderten Koronararterien. -
4 zeigt das Delaunay-Dreiecksmaschennetz, das den Umgebungsbereich der Koronararterien darstellt. -
5 zeigt Details eines Delaunay-Dreiecksmaschennetzes. -
6 zeigt die projizierten Arterien (linke und rechte Koronararterie) in einem Bild im gerenderten Umfeld ihres Umgebungsbereichs. -
7 zeigt ein Diagramm eines Systems gemäß der vorliegenden Erfindung. - Beschreibung einer bevorzugten Ausführungsform
- Um die verschiedenen Aspekte der vorliegenden Erfindung zu illustrieren, wird das Rendern von Blutgefäßen im Herzen und spezieller von linken und rechten Koronararterien in ihrer nahen Umgebung benutzt. Das Rendern von Koronararterien im Zusammenhang mit den umgebenden anatomischen Strukturen ohne Verformung, Ausblenden oder Einführen von Visualisierungsartefakten ist bekannt. Im Folgenden wird ein dreidimensionaler Bilddatensatz, der durch ein bekanntes medizinisches Bildgebungsgerät erhalten wurde, bearbeitet, um einem Anwender ein visuell hilfreiches Bild entsprechend dem Bilddatensatz zu präsentieren. Insbesondere können Blutgefäße mit ihrer Umgebungsinformation angezeigt werden. Der Bilddatensatz kann beispielsweise durch eine Magnetresonanzangiographie (MRA) des gesamten Herzens erhalten werden. Verständlicherweise können auch dreidimensionale Datensätze verwendet werden, die durch andere Mittel erhalten werden. D.h., die vorliegende Erfindung ist nicht auf spezielle Arten dreidimensionaler Datensätze, Datenformate, Voxel- oder Pixelauflösungen oder dergleichen beschränkt. Der dreidimensionale Datensatz kann betrachtet werden als die Beschreibung einer Mehrzahl spezieller Orte im Raum, von denen jeder einen entsprechenden Intensitätswert besitzt.
- Gemäß einem Gesichtpunkt der vorliegenden Erfindung wird nun ein Rendering-Verfahren beschrieben und illustriert, das fünf Schritte umfasst. Die Schritte sind auch in einem Ablaufdiagramm in
1 dargestellt. - In Schritt
101 werden die anatomischen Strukturen von Interesse im Datenvolumen unter Verwendung einer bevorzugten Rendering-Technik gerendert. Beispielsweise kann die Maximalintensitätsprojektion (MIP) als Rendering-Technik verwendet werden. - Während des Renderns in Schritt
101 wird der Abstand eines jeden Voxels, der auf dem gerenderten Bild vom Betrachtungspunkt (Kamera) aus angezeigt wird, im Z-Puffer gespeichert. Dies liefert die Tiefe der nahen Ebene für jedes sichtbare Pixel auf dem gerenderten Bild. Nicht-sichtbare Pixel werden auf den Wert 1 gesetzt. Dies ist in2 dargestellt, wobei die Koronararterien ohne Information hinsichtlich ihrer umgebenden anatomischen Strukturen gerendert und angezeigt werden. Im Falle von Mischoperationen, also wenn mehr als ein Voxel zum Ausgangsbild beiträgt, wird der Abstand zum nähesten beitragenden Voxel gespeichert. Die Ergebnisse bilden ein detailliertes Rendering der anatomischen Strukturen und des entsprechenden Z-Puffers der nahen Ebene. Diese Rendering-Ergebnisse werden zur späteren Verwendung gespeichert. Dies ist in3 dargestellt, wobei die Tiefe von einem definierten Betrachtungspunkt aus als Graustufe dargestellt ist. - Als nächstes wird Schritt
102 beschrieben. Der Z-Puffer aus Schritt101 wird bearbeitet, so dass alle Pixel, die auf der Grenze zwischen dem sichtbaren und nicht-sichtbaren Bereich liegen, extrahiert werden. Dies kann ausgeführt werden, indem die Nachbarpixel eines gegebenen Pixels überprüft werden. Wenn alle diese Nachbarpixel entweder sichtbar oder nichtsichtbar sind, wird das Pixel ignoriert. Ansonsten ist das Pixel ein Grenzpixel, und seine Bildkoordinaten werden in einer zweidimensionalen (2D) Anordnung von Punkten gespeichert. - Zusätzliche vier Punkte werden auf der Basis einer Begrenzungsbox hinzugefügt, die den Teil der Daten definiert, den man visualisieren möchte. Diese Begrenzungsbox ist auch als Visualisierungs-Pyramidenstumpf bekannt. Diese Punkte werden üblicherweise irgendwo in der Nähe der Ecken des Z-Puffer-Bilds hinzugefügt.
- Nun wird Schritt
103 beschrieben. Anschließend wird ein 2D-Maschennetz aus der Punkteanordnung, die in Schritt102 erzeugt wurde, erzeugt. Das 2D-Maschennetz kann unter Verwendung von Delaunay-Triangulation erzeugt werden. Dies ist in4 dargestellt, die die Delaunay-Dreiecke innerhalb der Begrenzungsbox mit den Grenzen401 ,402 ,403 und404 zeigt. Die Triangulation ist im näheren Detail in5 dargestellt. Das Maschennetz wird anschließend ins Dreidimensionale (3D) zurückprojiziert, indem jedem Punkt seine 3D-Koordinate hinzugefügt wird, die aus dem entsprechenden Tiefenwert im Z-Puffer und der vorgegebenen Betrachtungsrichtung/-position berechnet wird. - Nun wird Schritt
104 beschrieben. Der Z-Puffer wird nun wie folgt für den nächsten Rendering-Schritt festgesetzt. Die Werte aller Pixel, die sichtbaren Pixeln im Z-Puffer aus Schritt101 entsprechen (Pixel mit Z-Puffer-Wert von kleiner als 1) werden auf 0 gesetzt. Andere Pixel werden auf den Wert 1 gesetzt. Unter Verwendung dieses erzeugten Z-Puffers wird anschließend das in Schritt103 erzeugte 3D-Dreiecksmaschennetz unter Verwendung der "kleiner als"-Tiefenfunktion gerendert, und der neu erzeugte Z-Puffer wird gespeichert. Dies führt zu einem Z-Puffer mit Werten, die linear interpoliert sind, um eine glatte Änderung in der Tiefe zwischen den Kanten von sichtbaren Teilen der anatomischen Strukturen zu einer gewissen vorgegebenen Tiefe in ihrem Umgebungsbereich zu schaffen. - Im Folgenden wird Schritt
105 beschrieben. Das Volumen wird nun in das gerenderte Bild, das in Schritt101 gespeichert wurde, unter Verwendung eines vorgegebenen Rendering-Algorithmus gerendert. Die Z-Puffer-Werte aus Schritt104 liefern die Eintrittspunkte in die Volumendaten. Pixel mit Z-Puffer-Werten, die 0 entsprechen, werden übersprungen, da sie sichtbaren Teilen der gerenderten anatomischen Strukturen entsprechen, die bereits im gerenderten Bild (aus Schritt101 ) definiert sind. Die Strahlen werden bis zu einer speziellen Tiefe in das Volumen ausgebreitet. Das Ergebnis ist ein vollständiges Rendering der anatomischen Strukturen, wobei der Umgebungsbereich glatt um die nicht-sichtbaren Teile ohne Bildartefakte eingefügt ist. Alternativ kann die entfernte Ebene in einem Z-Puffer berechnet werden, ähnlich wie die nahe Ebene erzeugt wurde, und dies wird den Austrittspunkt aller Strahlen aus dem Volumen liefern. - Das Endergebnis ist in
6 dargestellt, die die verformungsfreie Projektion der zwei Koronararterienbäume601 und602 im Zusammenhang mit den umgebenden anatomischen Strukturen603 des Herzens zeigt. -
7 zeigt ein Computersystem, das gemäß einem Gesichtspunkt der vorliegenden Erfindung verwendet werden kann. Das System wird mit Daten701 versehen, die das darzustellende Bild repräsentieren. Ein Befehlssatz oder -programm702 , der die erfindungsgemäßen Verfahren aufweist, ist vorgesehen und wird mit den Daten in einem Prozessor703 kombiniert, der die Befehle aus702 , angewandt auf die Daten701 , verarbeiten kann und das daraus resultierende Bild auf einem Display704 anzeigt. Die Befehle702 können auch die Befehle umfassen, anatomische Strukturen von Interesse aus den Volumendaten zu extrahieren. Der Prozessor kann eine bestimmte Hardware, eine GPU, CPU oder jede beliebige andere Rechnereinheit sein, die die Befehle von702 ausführen kann. Eine Eingabevorrichtung705 wie eine Maus, eine Rollkugel oder eine andere Eingabevorrichtung ermöglicht es dem Anwender, beispielsweise die Betrachtungsrichtung auszuwählen und den Anzeigeprozess zu starten. Folglich liefert das in7 dargestellte System ein interaktives System für das Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich. - In dieser Beschreibung wird der Begriff "Pixel" verwendet, um eine Datenstruktur zu bezeichnen, die verwendet wird, um ein Bild zusammenzusetzen. Obwohl die Bezeichnung typischerweise ein zweidimensionales Element bezeichnet, soll zum Zwecke der nachfolgenden Offenbarung "Pixel" auch dreidimensionale Bildelemente, d.h. Voxel, einschließen.
- Auch wenn grundlegende neue Merkmale der Erfindung, angewendet auf spezielle Ausführungsformen, gezeigt, beschrieben und herausgestellt wurden, können verschiedene Weglassungen und Ersetzungen sowie Veränderungen in der Form und den Details der illustrierten Vorrichtung und in deren Betrieb von Fachleuten vorgenommen werden, ohne vom Umfang der Erfindung abzuweichen. Es ist daher beabsichtigt, dass eine Beschränkung lediglich durch den Schutzumfang der beigefügten Ansprüche erfolgt.
Claims (19)
- Verfahren zum Bearbeiten medizinischer Bilddaten für das glatte Rendern einer oder mehrerer anatomischer Strukturen mit einem nahen Umgebungsbereich aus 3D-Bilddaten von einem definierten Betrachtungspunkt aus, wobei die eine oder die mehreren anatomischen Strukturen von dem nahen Umgebungsbereich getrennt sind, mit folgenden Schritten: Erzeugen eines Bilds durch Rendern der einen oder der mehreren getrennten anatomischen Strukturen von dem definierten Betrachtungspunkt aus und Speichern einer Tiefeninformation der gerenderten anatomischen Strukturen, sowie Speichern des gerenderten Bilds der anatomischen Strukturen; Extrahieren einer Grenze zwischen der gerenderten einen oder den gerenderten mehreren anatomischen Strukturen und dem nahen Umgebungsbereich unter Verwendung der Tiefeninformation der gerenderten einen oder mehreren anatomischen Strukturen; Rendern des nahen Umgebungsbereichs von dem definierten Betrachtungspunkt aus; und Kombinieren der Renderings der einen oder mehreren anatomischen Strukturen und des nahen Umgebungsbereichs.
- Verfahren nach Anspruch 1, wobei die entsprechende Tiefeninformation der nahen Ebene der gerenderten einen oder mehreren anatomischen Strukturen als ein erster Z-Puffer gespeichert wird, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden.
- Verfahren nach Anspruch 2, wobei das Rendern des nahen Umgebungsbereichs die folgenden Schritte umfasst: Extrahieren der Pixel aus dem ersten Z-Puffer, die auf einer Grenze zwischen dem sichtbaren und nichtsichtbaren Bereich liegen; Speichern der Bildkoordinaten eines jeden Grenzpixels in einer 2D-Anordnung; Hinzufügen von vier Punkten zur 2D-Anordnung gemäß dem Visualisierungs-Pyramidenstumpf; Erzeugen eines 2D-Maschennetzes gemäß den 2D-Anordnungspunkten; und Projizieren des 2D-Maschennetzes auf ein 3D-Maschennetz, indem jedem der Punkte, die das 2D-Maschennetz definieren, seine entsprechende 3D-Koordinate zugeordnet wird.
- Verfahren nach Anspruch 3, wobei das Rendern des nahen Umgebungsbereichs außerdem den Schritt aufweist, Punkte auf dem 3D-Maschennetz zu interpolieren, um Pixel im nahen Umgebungsbereich zu bestimmen.
- Verfahren nach Anspruch 3, wobei das Rendern des nahen Umgebungsbereichs außerdem die Schritte aufweist, Koordinaten von Punkten auf dem 3D-Maschennetz zu interpolieren und auf die medizinischen Bilddaten auf der Basis der Koordinaten zuzugreifen, um Pixel im nahen Umgebungsbereich zu bestimmen.
- Verfahren nach Anspruch 3, wobei das 2D-Maschennetz erzeugt wird, indem Delaunay-Triangulation angewendet wird.
- Verfahren nach Anspruch 3, wobei eine zweite Tiefeninformation der nahen Ebene mit folgenden Schritten erzeugt wird: Rendern des 3D-Maschennetzes und Speichern der entsprechenden Tiefeninformation der nahen Ebene des gerenderten Maschennetzes als ein zweiter Z-Puffer, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden; und Setzen der Pixel, die den sichtbaren Pixeln im ersten Z-Puffer entsprechen, auf den Wert 0.
- Verfahren nach Anspruch 7, wobei die eine oder die mehreren anatomischen Strukturen mit dem nahen Umgebungsbereich aus 3D-Bilddaten mit folgenden Schritten gerendert werden: Erzeugen eines Bilds durch Rendern der 3D-Bilddaten unter Verwendung des zweiten Z-Puffers als Eintrittspunkte der Rendering-Strahlen in die Daten; Ausbreiten der Strahlen über eine spezifizierte Tiefenentfernung in die Daten; Überspringen der Pixel mit einem Wert des zweiten Z-Puffers von 1; und Zuordnen des entsprechenden Werts von der einen gespeicherten gerenderten oder den mehreren gespeicherten gerenderten anatomischen Strukturen zu jedem Pixel mit einem Wert des zweiten Z-Puffers von 0.
- Verfahren nach Anspruch 1, wobei die Tiefeninformation der entfernten Ebene für die Bestimmung der Austrittspunkte der Rendering-Strahlen aus den Daten verwendet wird.
- System zum Bearbeiten medizinischer Bilddaten für das glatte Rendern einer oder mehrerer anatomischer Strukturen mit einem nahen Umgebungsbereich aus 3D-Bilddaten von einem definierten Betrachtungspunkt aus, wobei die eine oder mehreren anatomischen Strukturen von dem nahen Umgebungsbereich getrennt sind, mit: einem Prozessor; einer Software, die auf dem Prozessor ausführbar ist, zum: Erzeugen eines Bilds durch Rendern der einen oder der mehreren getrennten anatomischen Strukturen von dem definierten Betrachtungspunkt aus und Speichern einer Tiefeninformation der gerenderten einen oder der gerenderten mehreren anatomischen Strukturen, sowie Speichern des gerenderten Bilds der einen oder mehreren anatomischen Strukturen; Extrahieren einer Grenze zwischen der gerenderten einen oder den gerenderten mehreren anatomischen Strukturen und des nahen Umgebungsbereichs unter Verwendung der Tiefeninformation der gerenderten einen oder mehreren anatomischen Strukturen; Rendern des nahen Umgebungsbereichs von dem definierten Betrachtungspunkt aus; und Kombinieren der Renderings der einen oder mehreren anatomischen Strukturen und des nahen Umgebungsbereichs.
- System nach Anspruch 10, wobei entsprechende Tiefeninformation der nahen Ebene der gerenderten einen oder mehreren anatomischen Strukturen als ein erster Z-Puffer gespeichert wird, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden.
- System nach Anspruch 11, wobei das Rendern des nahen Umgebungsbereichs umfasst: Extrahieren der Pixel aus dem ersten Z-Puffer, die auf einer Grenze zwischen dem sichtbaren und nichtsichtbaren Bereich liegen; Speichern der Bildkoordinaten eines jeden Grenzpixels in einer 2D-Anordnung; Hinzufügen von vier Punkten zu der 2D-Anordnung gemäß dem Visualisierungs-Pyramidenstumpf; Erzeugen eines 2D-Maschennetzes gemäß den 2D-Anordnungspunkten; und Projizieren des 2D-Maschennetzes auf ein 3D-Maschennetz, indem jedem der Punkte, die das 2D-Maschennetz definieren, seine entsprechende 3D-Koordinate zugeordnet wird.
- System nach Anspruch 12, wobei das Rendern des nahen Umgebungsbereichs außerdem den Schritt umfasst, Punkte auf dem 3D-Maschennetz zu interpolieren, um Pixel im nahen Umgebungsbereich zu bestimmen.
- System nach Anspruch 12, wobei das Rendern des nahen Umgebungsbereichs außerdem die Schritte umfasst, Koordinaten von Punkten auf dem 3D-Maschennetz zu interpolieren und auf die medizinischen Bilddaten auf der Basis der Koordinaten zuzugreifen, um Pixel im nahen Umgebungsbereich zu bestimmen.
- System nach Anspruch 12, wobei das 2D-Maschennetz durch Anwendung von Delaunay-Triangulation erzeugt wird.
- System nach Anspruch 12, wobei die zweite Tiefeninformation der nahen Ebene durch folgende Schritte erzeugt wird: Rendern des 3D-Maschennetzes und Speichern der entsprechenden Tiefeninformation der nahen Ebene des gerenderten Maschennetzes als ein zweiter Z-Puffer, wobei nicht-sichtbare Pixel auf den Wert 1 gesetzt werden; und Setzen der Pixel, die den sichtbaren Pixeln im ersten Z-Puffer entsprechen, auf den Wert 0.
- System nach Anspruch 16, wobei die eine oder die mehreren anatomischen Strukturen mit dem nahen Umgebungsbereich aus 3D-Bilddaten mit folgenden Schritten gerendert werden: Erzeugen eines Bilds durch Rendern der 3D-Bilddaten unter Verwendung des zweiten Z-Puffers als Eintrittspunkte der Rendering-Strahlen in die Daten; Ausbreiten der Strahlen über eine spezifizierte Tiefenentfernung in die Daten; Überspringen der Pixel mit Werten des zweiten Z-Puffers von 1; und Zuordnen des entsprechenden Werts aus der gespeicherten gerenderten einen oder den mehreren anatomischen Strukturen zu jedem Pixel mit einem Wert des zweiten Z-Puffers von 0.
- System nach Anspruch 10, wobei die Tiefeninformation der entfernten Ebene für die Bestimmung der Austrittspunkte der Rendering-Strahlen aus den Daten verwendet wird.
- System nach Anspruch 10, wobei der Prozessor eine Graphikprozessoreinheit ist.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US67779105P | 2005-05-04 | 2005-05-04 | |
US60/677,791 | 2005-05-04 | ||
US11/414,892 | 2006-05-01 | ||
US11/414,892 US7893938B2 (en) | 2005-05-04 | 2006-05-01 | Rendering anatomical structures with their nearby surrounding area |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102006021118A1 true DE102006021118A1 (de) | 2007-01-04 |
DE102006021118B4 DE102006021118B4 (de) | 2008-07-10 |
Family
ID=37394940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006021118A Active DE102006021118B4 (de) | 2005-05-04 | 2006-05-04 | Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich |
Country Status (2)
Country | Link |
---|---|
US (1) | US7893938B2 (de) |
DE (1) | DE102006021118B4 (de) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100293505A1 (en) * | 2006-08-11 | 2010-11-18 | Koninklijke Philips Electronics N.V. | Anatomy-related image-context-dependent applications for efficient diagnosis |
US20080278490A1 (en) * | 2007-05-11 | 2008-11-13 | Claron Technology Inc. | Anatomical context presentation |
US8019042B2 (en) * | 2008-04-22 | 2011-09-13 | Siemens Medical Solutions Usa, Inc. | Medical imaging processing and care planning system |
DE102009053471B4 (de) * | 2009-11-16 | 2018-08-02 | Siemens Healthcare Gmbh | Verfahren und Vorrichtung zur Identifizierung und Zuordnung von Koronarkalk zu einem Herzkranzgefäß sowie Computerprogrammprodukt |
US8923590B2 (en) * | 2011-01-20 | 2014-12-30 | Siemens Aktiengesellschaft | Method and system for 3D cardiac motion estimation from single scan of C-arm angiography |
DE102012100848B4 (de) | 2012-02-01 | 2019-05-29 | Hans Pfriem | System und Verfahren zur stereoskopischen Darstellung von Aufnahmen eines Endoskops |
US9836879B2 (en) * | 2013-04-16 | 2017-12-05 | Autodesk, Inc. | Mesh skinning technique |
DE102015112411A1 (de) | 2015-07-29 | 2017-02-02 | Universal Consulting GmbH | System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops |
US10878564B2 (en) * | 2019-04-12 | 2020-12-29 | Zebra Medical Vision Ltd. | Systems and methods for processing 3D anatomical volumes based on localization of 2D slices thereof |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0792840B2 (ja) * | 1989-10-13 | 1995-10-09 | インターナショナル・ビジネス・マシーンズ・コーポレーシヨン | 画像生成方法及び装置 |
US5239591A (en) * | 1991-07-03 | 1993-08-24 | U.S. Philips Corp. | Contour extraction in multi-phase, multi-slice cardiac mri studies by propagation of seed contours between images |
US5365996A (en) * | 1992-06-10 | 1994-11-22 | Amei Technologies Inc. | Method and apparatus for making customized fixation devices |
US5568384A (en) * | 1992-10-13 | 1996-10-22 | Mayo Foundation For Medical Education And Research | Biomedical imaging and analysis |
US5798764A (en) * | 1994-05-27 | 1998-08-25 | Nec Corporation | Method for determining the intersections of Delaunay partitioned tetrahedra with the boundary of a body to be analyzed |
US5839440A (en) * | 1994-06-17 | 1998-11-24 | Siemens Corporate Research, Inc. | Three-dimensional image registration method for spiral CT angiography |
US5920319A (en) * | 1994-10-27 | 1999-07-06 | Wake Forest University | Automatic analysis in virtual endoscopy |
JPH08138078A (ja) * | 1994-11-09 | 1996-05-31 | Toshiba Medical Eng Co Ltd | 画像処理装置 |
US5825908A (en) * | 1995-12-29 | 1998-10-20 | Medical Media Systems | Anatomical visualization and measurement system |
US5971767A (en) * | 1996-09-16 | 1999-10-26 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination |
US5986662A (en) * | 1996-10-16 | 1999-11-16 | Vital Images, Inc. | Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging |
US5926568A (en) * | 1997-06-30 | 1999-07-20 | The University Of North Carolina At Chapel Hill | Image object matching using core analysis and deformable shape loci |
US6061469A (en) * | 1998-06-22 | 2000-05-09 | Mitsubishi Electric Information Technology Center America, Inc (Ita) | Object rendering system to produce X-ray like images |
US6310620B1 (en) * | 1998-12-22 | 2001-10-30 | Terarecon, Inc. | Method and apparatus for volume rendering with multiple depth buffers |
US7386153B2 (en) * | 2001-11-23 | 2008-06-10 | Infinitt Co., Ltd. | Medical image segmentation apparatus and method thereof |
US6876362B1 (en) * | 2002-07-10 | 2005-04-05 | Nvidia Corporation | Omnidirectional shadow texture mapping |
US7639855B2 (en) * | 2003-04-02 | 2009-12-29 | Ziosoft, Inc. | Medical image processing apparatus, and medical image processing method |
JP4122314B2 (ja) * | 2004-06-15 | 2008-07-23 | ザイオソフト株式会社 | 投影画像処理方法、投影画像処理プログラム、投影画像処理装置 |
-
2006
- 2006-05-01 US US11/414,892 patent/US7893938B2/en not_active Expired - Fee Related
- 2006-05-04 DE DE102006021118A patent/DE102006021118B4/de active Active
Also Published As
Publication number | Publication date |
---|---|
US7893938B2 (en) | 2011-02-22 |
US20060253021A1 (en) | 2006-11-09 |
DE102006021118B4 (de) | 2008-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006021118B4 (de) | Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich | |
DE69632578T2 (de) | Computer-grafiksystem zum schaffen und verbessern von texturabbildungssystemen | |
DE102006018348B4 (de) | System und Verfahren für die verschmolzene PET-CT-Visualisierung zum Entfalten des Herzens | |
DE102005035012B4 (de) | Hochleistungsschattierung von großen volumetrischen Daten unter Verwendung von partiellen Schirmraumableitungen | |
DE102009042328B4 (de) | Effiziente Bestimmung von Lichteffekten beim Volume Rendering | |
DE19646194B4 (de) | Echtzeit-Wiedergabeverfahren zum wahlweisen Ausführen von Bump-Mapping- und Phong-Schattierungs-Prozessen und zugehörige Vorrichtung | |
DE102004043676B4 (de) | Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen | |
DE69924699T2 (de) | Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten | |
DE112004000377B4 (de) | Verfahren und Vorrichtung Bildsegmentierung in einer dreidimensionalen Arbeitsumgebung | |
DE69737720T2 (de) | Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem | |
DE69919497T2 (de) | Verfahren und Gerät zur Volumendarstellung mit mehreren Tiefenpuffern | |
DE102006023633A1 (de) | Gleichzeitige Projektion von mehrfach verzweigten Gefäßen und ihrer Umgebung auf einem einzigen Bild | |
DE60311865T2 (de) | Bildverarbeitungssystem zur automatischen anpassung eines 3d-maschenmodels auf eine 3d-objektfläche | |
DE102009035441B4 (de) | Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers | |
DE112005001755T5 (de) | System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie | |
DE102005023964A1 (de) | Volumenvisualisierung mittels Texturverschiebung | |
DE102013114176A1 (de) | Tessellieren von Oberflächendatensegmenten beim kachelbasierten Rendern von Computergrafik | |
DE102012210521A1 (de) | Unbeschnittene Zeit- und Linsen-Begrenzungen für verbesserte Probentest- Effizienz bei Bild-Rendering | |
DE102017214447B4 (de) | Planare Visualisierung von anatomischen Strukturen | |
DE102006003126A1 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten | |
DE69924230T2 (de) | Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten | |
DE19807013A1 (de) | Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet | |
DE102009042326A1 (de) | Interaktive Veränderung der Darstellung eines mittels Volume Rendering dargestellten Objekts | |
DE102005035796A1 (de) | System und Verfahren zum Polygon-Glätten beim texturbasierten Volumen-Rendering | |
EP3155597B1 (de) | Reformatierung unter berücksichtigung der anatomie eines zu untersuchenden objekts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), US |
|
R081 | Change of applicant/patentee |
Owner name: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), US Free format text: FORMER OWNER: SIEMENS CORP. RESEARCH, INC., PRINCETON, N.J., US Effective date: 20110214 Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS CORP. RESEARCH, INC., PRINCETON, N.J., US Effective date: 20110214 |
|
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), ISELIN, N.J., US |
|
R082 | Change of representative | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHINEERS AG, DE Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE |