DE102009042327A1 - Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering - Google Patents

Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering Download PDF

Info

Publication number
DE102009042327A1
DE102009042327A1 DE102009042327A DE102009042327A DE102009042327A1 DE 102009042327 A1 DE102009042327 A1 DE 102009042327A1 DE 102009042327 A DE102009042327 A DE 102009042327A DE 102009042327 A DE102009042327 A DE 102009042327A DE 102009042327 A1 DE102009042327 A1 DE 102009042327A1
Authority
DE
Germany
Prior art keywords
color value
value
values
characterizing
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102009042327A
Other languages
English (en)
Inventor
Klaus Dr. Engel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102009042327A priority Critical patent/DE102009042327A1/de
Priority to US12/881,798 priority patent/US20110069070A1/en
Priority to CN2010102892630A priority patent/CN102024271A/zh
Publication of DE102009042327A1 publication Critical patent/DE102009042327A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft die Visualisierung eines Objekts mittels simulierter Bestrahlung. Dabei werden folgende Schritte ausgeführt: a) Verwenden einer Darstellung des Objekts, bei welcher an Raumpunkten des Objekts Werte einer das Objekt charakterisierenden Größe gegeben sind, b) Generieren eines ersten Strahles zur Bestimmung eines einem Pixel für eine zweidimensionale Darstellung des Objekts zugeordneten Pixelfarbwerts, c) Propagieren des Strahles durch zumindest einen Teil des Objekts, d) schrittweise Ermitteln von Werten der Größe auf dem ersten Strahl, e) Detektieren einer Oberfläche des Objekts mittels der auf dem ersten Strahl ermittelten Werten, f) Generierung von wenigstens einem zweiten Strahl zur Bestimmung eines eine Eigenschaft des Objekts charakterisierenden quantitativen Werts, g) Propagieren des wenigstens einen zweiten Strahles von der Oberfläche aus durch zumindest einen Teil des Objekts, h) schrittweise Ermitteln von mit der charakteristischen Größe assoziierten Werttimmung des eine Eigenschaft des Objekts charakterisierenden quantitativen Werts mittels des wenigstens einen zweiten Strahles, j) Zuordnen eines Farbwertes nach Maßgabe des quantitativen Wertes, und k) Verwendung des Farbwertes für die Bestimmung des Pixelfarbwertes.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Visualisierung eines Objekts mittels simulierter Bestrahlung.
  • Die Erfindung liegt auf dem Gebiet des Volume Rendering, d. h. der Darstellung bzw. Visualisierung von dreidimensionalen Körpern bzw. Objekten. Die Modellierung, Rekonstruktion oder Visualisierung von dreidimensionalen Objekten hat einen weiten Anwendungsbereich in den Feldern Medizin (z. B. CT, PET, MR, Ultraschall), Physik (z. B. Elektronenstruktur großer Moleküle) oder Geophysik (Beschaffenheit und Lage von Erdschichten). Typischerweise wird das zu untersuchende Objekt bestrahlt (z. B. mittels elektromagnetischer Wellen oder Schallwellen), um seine Beschaffenheit zu untersuchen. Die gestreute Strahlung wird detektiert und aus den detektierten Werten werden Eigenschaften des Körpers ermittelt. Üblicherweise besteht das Ergebnis in einer physikalischen Größe (z. B. Dichte, Anteil von Gewebebestandteilen, Elastizität, Geschwindigkeit), deren Wert für den Körper ermittelt wird. Dabei verwendet man in der Regel ein virtuelles Gitter, an dessen Gitterpunkten der Wert der Größe ermittelt wird. Diese Gitterpunkte bzw. die Werte der Größe an diesen Orten werden üblicherweise als Voxel bezeichnet. Diese liegen häufig in der Form von sog. Grauwerten vor.
  • Mittels Volume Rendering wird aus den Voxeln eine dreidimensionale Darstellung des untersuchten Objekts bzw. Körpers auf einer zweidimensionalen Darstellungsfläche (z. B. Bildschirm) erzeugt. Dabei werden aus den Voxeln sog. Pixel erzeugt (häufig mit der Zwischenstufe von aus den Voxeln durch Interpolation gewonnenen Objektpunkten), aus welchen das Bild der zweidimensionalen Bildanzeige zusammengesetzt ist. Um auf einer zweidimensionalen Anzeige drei Dimensionen zu visualisieren, wird in der Regel ein sog. Alpha-Compositing bzw. eine Alpha-Zerlegung vorgenommen. Bei dieser Standardmethode werden Voxeln bzw. aus Voxeln gebildeten Volumenpunkten sowohl Farben als auch Durchlässigkeitswerte, genauer gesagt Werte für die Undurchlässigkeit bzw. Opazität (üblicherweise bezeichnet mit dem englischen Begriff Opacity, der die Durchlässigkeit bzw. die Deckkraft verschiedener Schichten des Körpers ausdrückt) zugeordnet. Konkreter werden einem Objektpunkt üblicherweise drei Farben in Form eines Drei-Tupels, der die Anteile der Farben rot, grün und blau kodiert (sog. RGB-Wert), und ein sog. Alpha-Wert, der die Undurchlässigkeit parametrisiert, zugeordnet. Zusammen bilden diese Größen einen Farbwert RGBA, der mit den Farbwerten anderer Objektpunkte zu einem Farbwert für das Pixel kombiniert bzw. gemischt werden (für die Visualisierung von teilweise transparenten Objekten üblicherweise mittels eines sog. alpha blending).
  • Für die Zuordnung eines passenden Farbwertes wird meist mit einem Beleuchtungsmodell gearbeitet. Dieses Beleuchtungsmodell berücksichtigt Lichteffekte (in der Regel Reflexionen des Lichtes an Oberflächen des Objektes; dabei kann es sich um die äußere Oberfläche oder um Oberflächen innere Schichten des untersuchten Objektes handeln) bei einer zum Zwecke der Visualisierung modellierten bzw. simulierten Bestrahlung des Objektes.
  • Es gibt in der Literatur eine Reihe von Beleuchtungsmodellen, die angewandt werden. Gebräuchlich ist z. B. das Phong- oder Blinn-Phong-Modell.
  • Eines der meistbenutzten Verfahren zum Volume Rendering ist das sog. Ray-Casting bzw. die Simulation einer Lichteinstrahlung zur Darstellung bzw. Visualisierung des Körpers. Beim Ray-Casting werden imaginäre Strahlen, die vom Auge eines imaginären Betrachters ausgehen, durch den untersuchten Körper bzw. das untersuchte Objekt gesendet. Entlang der Strahlen werden für Abtastpunkte RGBA-Werte aus den Voxeln bestimmt und zu Pixeln für ein zweidimensionales Bild mittels Alpha Compositing bzw. Alpha Blending vereinigt. Beleuchtungseffekte werden dabei üblicherweise mittels eines der oben abgesprochenen Beleuchtungsmodelle im Rahmen eines mit „Shading” bezeichneten Verfahrens berücksichtigt.
  • Bestimmten geometrischen Größen, z. B. Wanddicke, Entfernungen oder Radien innerhalb eines untersuchten Objektes werden häufig vorab (im Rahmen einer pre-processing Prozedur) bestimmt, bevor ein Ray-Casting zur Bildberechnung durchgeführt wird. Z. B. verwendet Luerig et al. [1] morphologische Operatoren im Rahmen eines Pre-Processings, um den Durchmesser von Strukturen zu berechnen. Knorpp et al. [2] suchen entgegengesetzte Punkte für Oberflächen eines Volumens entlang einer Oberflächennormale. Reinhart et al. [3] verwendet einen Pre-Processing-Schritt, bei dem eine lokale Suche innerhalb sphärischer Regionen um Materialübergänge verwendet wird, um so Bereiche zu finden, wo zwei benachbarte Übergänge zwischen Luft und Material vorkommen.
  • Die Ergebnisse (z. B. Objektstrukturen) derartiger Pre-Prozessing Verfahren können in einer von der dreidimensionalen Darstellung des Objekts abgeleiteten Datenstruktur gespeichert werden, z. B. in einer sekundären Darstellung bzw. einem sekundären Volumen, auf welches beim Rendering des primären Volumens zugegriffen wird, um Oberflächen entsprechend der Größe von Strukturen des Objektes zu färben.
  • Es besteht ein Bedürfnis nach effizienteren Verfahren zur Berücksichtigung von Objekteigenschaften, wie z. B. geometrischen Strukturen, beim Volume Rendering. Vor allem sollte ein entsprechendes Volume Rendering so effizient durchführbar sein, dass ein Objekt interaktiv manipuliert werden kann (Drehen, anders Einfärben, ...), wobei die Manipulationen ein erneutes Durchführen des Renderings mit einer Neubestimmung von geometrischen Strukturen erfordern dürfen.
  • Die Aufgabe der Erfindung ist, das Rendering eines Objektes im Hinblick auf Objekteigenschaften flexibler und effizienter zu machen.
  • Die Aufgabe wird durch die Ansprüche gelöst.
  • Die Erfindung betrifft die Visualisierung eines Objekts mittels simulierter Bestrahlung (z. B. Ray Casting). Dabei ist der Begriff Objekt breit zu verstehen. Insbesondere kann das Objekt auch aus mehreren Gegenständen bestehen, die mit dem Verfahren gemeinsam untersucht werden. Verknüpfte oder verbundene Gegenstände werden z. B. mittels Strahlen (erster oder zweiter Strahl im Sinne des unten beschriebenen Verfahrens) untersucht, die von einem Gegenstand in den anderen propagieren. Das Objekt kann praktisch beliebiger Natur sein. Insbesondere ist das Verfahren für die Materialuntersuchung und die medizinische Bildgebung geeignet.
  • Es wird eine Darstellung des Objekts, bei welcher an Raumpunkten des Objekts skalare Werte (häufig sog. Grauwerte) einer das Objekt charakterisierenden Größe gegeben sind. Man spricht in diesem Zusammenhang auch von einem dreidimensionalen Bild oder einer Volumendarstellung. Die charakterisierende Größe ist z. B. eine physikalische Größe, die mit einem Messverfahren (z. B. Computertomographie, Kernspintomographie, ...) bestimmt wurde. Dabei handelt es sich z. B. um eine Dichteinformation (Dichte des Gewebes oder Wasserstoffanteil; letzteres bei Kernspintomographie).
  • Die Erfindung zielt auf die zweidimensionale Darstellung des Objekts bzw. von Objekteigenschaften, d. h. die Generierung eines zweidimensionalen Bildes. Dieses setzt sich aus sog. Pixeln zusammen. Vorzugsweise wird das erfindungsgemäße Verfahren, das im Folgenden für ein Pixel beschrieben ist, für alle Pixel eines zweidimensionalen Bildes des Objektes durchgeführt.
  • Für die Darstellung eines Pixels wird dabei ein Farbwert ermittelt. Dieser wird üblicherweise in Form eines RGB-Wertes kodiert (d. h. durch die Beiträge der Farben Rot, Grün und Blau). Der Begriff Farbwert soll jede Kodierung eines Farbwertes umfassen. Im Zuge des erfindungsgemäßen Verfahrens kann eine Zusammensetzung von verschiedenen Farbwerte zu eine Pixelfarbwert (z. B. im Zuge eines sog. alpha compositing oder alpha blending) erfolgen. Zu diesem Zweck werden in der Regel sog. alpha-Werte verwendet, die ein Maß für die Opazität des jeweiligen Punktes darstellen. Üblich sind auch als RGBA bezeichnete 4-Tupel, die neben den Farben einen alpha-Wert beinhalten. Der Begriff Farbwert soll auch derartige Ausdrücke umfassen, d. h. erforderlichenfalls auch eine Opazitäts- oder Transparenzinformation bzw. einen alpha-Wert beinhalten. Dem Fachmann ist klar, dass derartige Werte für eine Zusammensetzung von mehreren Farbwerten zu einem erforderlich sind. D. h. bei den Ausgestaltungen der Erfindung, wo eine Zusammensetzung von Farbwerten erfolgt, beinhaltet in der Regel die Bestimmung von Farbwertinformationen auch die einer Information zur Opazität oder Transparenz.
  • Gemäß der Erfindung wird in einem ersten Schritt ein erster Strahl zur Bestimmung eines einem Pixel für eine zweidimensionale Darstellung des Objekts (bzw. von Objekteigenschaften) zugeordneten Pixelfarbwerts generiert. Dieser erste Strahl wird durch zumindest einen Teil des Objekts propagiert, wobei schrittweise Werte der charakteristischen Größe (z. B. als Grauwerte dargestellte Dichteinformationen) auf dem ersten Strahl ermittelt werden. Bei der Propagation kann für die Abtaststellen des Strahles ein Zuordnen eines Farbwertes (z. B. RGBA-Wertes) zu den ermittelten Werten (z. B. mittels Transferfunktion) erfolgen. Zudem kann an diesen Stellen auch ein Shading, z. B. mittels eines lokalen Beleuchtungsmodells, durchgeführt werden.
  • Es wird im Zuge der Propagation des ersten Strahls eine Oberfläche des Objekts mittels der auf dem ersten Strahl ermittelten Werte detektiert. Dabei kann es sich um eine äußere oder innere Oberfläche des Objekts handeln (eine innere Oberfläche ist dabei z. B. durch das Aufeinandertreffen von verschiedenen Material- bzw. Gewebeschichten definiert). Die Oberflächendetektion besteht in der Regel aus der Bestimmung des Schnittpunkts des Strahls mit der Oberfläche. Dabei kann z. B. mittels Intervallschachtelung eine im Bezug auf die bei der Propagation des ersten Strahls verwendete Schrittweite verfeinerte Detektion der Oberfläche vorgenommen werden.
  • Erfindungsgemäß wird dann ein zweiter Strahl oder eine Mehrzahl von zweiten Strahlen generiert, was der Bestimmung eines eine Eigenschaft des Objekts charakterisierenden quantitativen Werts dient. Dabei kann es sich um eine geometrische Eigenschaft handeln (z. B. Dicke einer an die Oberfläche angrenzenden Materialschicht bzw. Gewebeschicht oder eines Maßes für Dichteschwankungen). Denkbar ist aber auch z. B. eine Materialeigenschaft, wie z. B. Homogenität oder Anisotropie.
  • Dieser wenigstens eine zweite Strahl wird von der Oberfläche aus durch zumindest einen Teil des Objekts propagiert. Die Richtung des Strahls kann z. B. nach Maßgabe des Normalenvektors der Oberfläche an dem Schnittpunkt mit dem ersten Strahl festgelegt werden (z. B. ein Strahl in entgegengesetzter Richtung zum Vektor, ein Bündel von Strahlen, die definierte Winkel mit der Normalen einschließen, ...). Es werden schrittweise mit der charakteristischen Größe assoziierte Werte auf dem wenigstens einen zweiten Strahl ermittelt. Dabei kann, muss sich es aber nicht um die Werte der Größe handeln. Z. B. ist denkbar, dass der Betrag von Gradienten der Größe ermittelt wird, z. B. als Maß für Fluktuationen.
  • Mittels des zweiten Strahls wird der eine Eigenschaft des Objekts charakterisierende quantitative Wert bestimmt. Dabei wird z. B. der wenigstens eine zweite Strahl propagiert, bis ein Abbruchkriterium erfüllt ist. Dieses Abbruchkriterium besteht z. B. aus dem Auftreffen auf eine weitere Oberfläche (z. B. über Absolutwerte oder Beträge der Gradienten von mit der charakteristischen Größe assoziierten Werten detektiert). Es kann aber auch andere Kriterien geben. Denkbar ist beispielsweise eine Untersuchung der Homogenität eines Materials. Die bei den Schritten genommenen Werte werden miteinander korreliert und abgebrochen, wenn der Wert eines vorgegebnen Maßes für Schwankungen überschritten wird. In Zuge des Abbruchs kann eine Verfeinerung zur präzisieren Bestimmung der Stelle, wo das Abbruchkriterium erfüllt ist, durchgeführt werden. Dies ist vor allem sinnvoll, wenn der eine Eigenschaft des Objekts charakterisierenden quantitative Wert die Länge des sekundären Strahls oder eine aus den Längen einer Mehrzahl sekundärer Strahlen ermittelte Größe ist.
  • Dem so bestimmten quantitativen Wert wird ein Farbwertes (z. B. RGBA-Wert) z. B. mittels einer Transferfunktion zugeordnet. Dabei ist es in vielen Anwendungen sinnvoll, die Transferfunktion nach Maßgabe zumindest eines darzustellenden Bestandteils des Objekts festzulegen. Z. B. kann das Objekt ein Kopf eines Lebewesens sein, und die Transferfunktion zwecks Darstellung von Arterien für eine im Wesentlichen transparente Darstellung der Schädeldecke festgelegt werden.
  • Das Verfahren kann nach dem Propagieren des wenigstens einen zweiten Strahls fortgesetzt werden, indem der erste Strahl von der Oberfläche aus weiter propagiert wird. Es kann nach erneuten Treffen auf eine weitere Oberfläche die Propagation eines weiteren wenigstens einen zweiten Strahls durchgeführt werden. Dabei ist es sinnvoll, die Propagation des ersten Strahles abzubrechen, wenn im Rahmen der weiteren Propagation des Strahles kein signifikanter Beitrag zum Farbwert des Pixels ermittelbar ist, z. B. weil in Richtung der weiteren Propagation Intransparenz des Objektes vorliegt.
  • Der im Zuge der Propagation des wenigstens einen zweiten Strahls ermittelte Farbwertes wird für die Bestimmung des Pixelfarbwertes verwendet. Dabei kann eine Zusammensetzung dieses Farbwertes mit von bei dem Verfahren mittels des ersten Strahls und/oder weiterer zweiter Strahlen ermittelten anderen Farbwerten erfolgen, um so den Pixelfarbwertes zu erzeigen.
  • Die Erfindung hat den Vorteil, dass mit Pixel Strahlen generiert werden können, die on-the-fly auch geometrische oder andere Eigenschaften eines untersuchten Objektes berücksichtigen. Sie ist damit aufwandsärmer als herkömmliche Verfahren.
  • Die Erfindung wird im Folgenden im Rahmen eines Ausführungsbeispiels anhand von Figuren näher erläutert.
  • Es zeigen
  • 1 schematische Darstellung von Ray-Casting
  • 2 ein Ablaufdiagramm für ein erfindungsgemäßes Verfahren
  • 3 Vorgehen zum Auffinden der Position einer Oberfläche
  • 4 Veranschaulichung eines erfindungsgemäßen Verfahrens zur Dickenbestimmung eines Objekts
  • 5 Zwei Bilder von mittels des Verfahren visualisierten Objekten
  • 6 eine Hardwarestruktur zur Durchführung des erfindungsgemäßen Verfahrens
  • Im Zuge einer Ausgestaltung der Erfindung werden Bilder generiert, welche geometrische Eigenschaften des Objektes visualisieren, z. B. im Rahmen der Färbung von Oberflächen in Abhängigkeit der Dicke der darunterliegenden Struktur unter Verwendung einer Farbpalette.
  • 1 zeigt das Prinzip von Volume-Ray-Casting, wie es derzeit verwendet wird. Strahlen werden von einem virtuellen Auge 11 durch jedes Pixel einer virtuellen Bildebene 12 gesendet. Punkte dieser Strahlen werden innerhalb des Volumens bzw. des Objekts O an diskreten Positionen (erste Position 13) abgetastet. Eine Vielzahl der Abtastwerte wird dann zu einer endgültigen Pixelfarbe kombiniert.
  • 2 zeigt ein Ablaufdiagramm für das Erzeugen von Bildern aus Volumendaten unter Berücksichtigung von dabei ermittelten Geometrieinformationen. Bei diesem Verfahren wird, wie bei der standardgemäßen Volume-Ray-Casting Prozedur, für jedes Pixel der Bildebene ein Strahl generiert (Schritt 21), der von einer virtuellen Augenposition ausgeht (vgl. 1). Mit diesen Strahlen wird das Objektinnere abgetastet. Dabei wird eine innere oder äußere Oberfläche der Volumendaten detektiert (Schritt 22). Dies geschieht beispielsweise durch ein Schwellenwertverfahren oder durch die Detektion von lokal hohen Gradientenwerten in den Volumendaten. Eine binäre Suche kann verwendet werden um die Position der Oberfläche mit Subvoxel-Genauigkeit bzw. einer höheren Genauigkeit als die Abtast-Schrittweite des Strahls zu bestimmen.
  • In 3 ist veranschaulicht ein Vorgehen zur Bestimmung einer Oberflächenposition mit höherer Genauigkeit. Der Ausgangspunkt ist ein imaginäres Auge 31, von dem aus schrittweise der Strahl propagiert wird. Dieser Strahl erreicht im ersten Schritt die Position 32, dann 33 und schließlich 34. Zwischen dem Schritt 33 und 34 dringt der Strahl in das Objekt O ein. Aus den Dichtewerten an den Voxeln des Objekts werden Dichtewerte für die einzelnen Abtastpunkte 31, 32, 33, ... berechnet. Beim Abtastpunkt 33 ist der Dichtewert null, da sich dieser Abtastpunkt noch außerhalb des Volumens O befindet. Dieser Dichtewert hat sich beim Abtastpunkt 34 stark geändert. Diese Änderung wird erkannt und dadurch eine Verfeinerungsprozedur getriggert. Als nächster Schritt wird der zwischen den Abtastwerten 33 und 34 liegende Punkt 35 abgetastet. Die Berechnung der Dichte an diesem Ort zeigt, dass sich dieser Wert außerhalb des Objektes O befindet. Als nächster Schritt wird der Punkt 36 abgetastet, der sich in der Mitte zwischen den Punkten 35 und 34 befindet. Dieser Punkt liegt innerhalb des Objektes, wie sich aus der Dichte erschließen lässt. Damit ist im Zuge dieser Intervallschachtelung der Ort der Oberfläche als zwischen den Punkten 35 und 36 liegend bestimmt. Als Näherung für den Ort der Oberfläche wird nun der mittlere Wert dieses Intervalls genommen, nämlich der Punkt 37. Dies zeigt, wie mit einer Art Intervallschachtelung die Präzision für die Ortsbestimmung des Eintrittspunktes des Strahles in die Oberfläche präzisiert wird.
  • 3 zeigt somit im Detail, wie der Schritt 22 aus 2 ausgeführt werden kann. Gemäß 2 sind die nächsten Schritte die Berechnung der Flächennormalen und die Generierung eines Teststrahls (Schritte 23 und 24). Dies ist in 4 detaillierter dargestellt. Vom Eintrittspunkt 41 aus wird die Flächennormale n bestimmt und in der entgegengesetzten Richtung ein Teststrahl propagiert, der zur Berechnung der Dicke des Objektes O an dieser Stelle verwendet wird (Schritt 24 aus 2). Dieser Teststrahl besitzt die Abtastpunkte 42, 43 und 44, wobei wieder durch die Dichtenänderung erkannt wird, dass bei dem Schritt von 43 auf 44 eine Dichtenänderung stattfindet. Erneut wird entsprechend 3 eine verfeinerte Suche nach der Position des Austritts aus der Oberfläche vorgenommen, um so einen Wert für die Dicke d des Objektes O an dieser Stelle zu erhalten. Dies sind die in 2 mit 25 und 26 beschriebenen Schritte, d. h. die Detektion der hinteren Oberfläche und die Berechnung deren Position bzw. der Dicke d. Pfeil 45 deutet an, dass diese Dicke d als Input für eine Transferfunktion, die dieser Dicke d eine Farbe und Opazität (RGBA-Wert) zuordnet, verwendet wird. In 4 ist unten ein Diagramm D gezeigt, welches drei verschiedene Transferfunktionen T1 bis T3 zeigt. Dabei ist auf der X-Achse die bestimmte Dicke und auf der Y-Achse die entsprechende Transparenz bzw. Durchsichtigkeitswert angezeigt. Unten ist die Dicke d eingezeichnet, die berechnet wurde. Je nach gewählter Transferfunktion T1 bis T3 wird die Oberfläche in der Darstellung transparent oder opak bzw. undurchsichtig. Durch die geeignete Wahl der Transferfunktion können Eigenschaften des untersuchten Objektes O besser visualisiert werden. Der erhaltene Farbwert (RGBA-Wert) wird mit dem beim Ray-Casting erhaltenen Farbwerten verknüpft (z. B. durch alpha blending), wie Schritt 27 der 2 zeigt. An dieser Stelle kann die Propagation des ursprünglichen Ray-Casting-Strahls dann abgebrochen werden, wenn die weiteren Abtastpunkte keinen Beitrag mehr zum Pixel leisten, da der Strahl nicht bis dorthin vordringt. Dies ist in der Abfrage 28 von 2 dargestellt; wenn der Schwellenwert für Undurchlässigkeit erreicht wird, ist die Pixelberechnung abgeschlossen und die Pixelfarbe kann für die Darstellung abgespeichert werden (Schritt 29). Anderenfalls wird das Ray-Casting fortgesetzt, bis eine neue Oberfläche gefunden wird und ggf. der Beitrag dieser Oberfläche zu dem Pixel mit derselben Methode wie vorher bestimmt.
  • In 5 sind zwei Beispiele von Objekten gezeigt, die mit der erfindungsgemäßen Methode untersucht wurden. Die Dicke von Strukturen innerhalb des Objektes wird visualisiert. Mit den dort verwendeten Transferfunktionen (weiße Kurve in den Diagrammen) werden Strukturen mit mittlerer Dicke transparent dargestellt. Dies wird durch entsprechend niedrige Alphawerte erreicht. Der Vorteil ist beispielsweise an dem Bild rechts zu sehen. Da die Schädeldecke und die Arterien innerhalb des menschlichen Kopfes eine vergleichbare Dicke besitzen, lassen sich beide bei herkömmlichem Ray-Casting schlecht unterscheiden. Die gezeigte Darstellung benützt die unterschiedlichen Dicken (nämlich geringe Dicke der Arterien und mittlere Dicke der Schädeldecke) um eine bessere Visualisierung der Arterien zu erreichen.
  • Das Verfahren erlaubt nicht nur sekundäre bzw. innere Oberflächen innerhalb desselben Volumendatensatzes zu detektieren, sondern auch nach sekundären Oberflächen innerhalb von kombinierten Volumina zu sondieren. In dem Fall werden Teststrahlen von einer primären Oberfläche in dem Hauptvolumen in das damit verbundene Volumen propagiert, um dort eine Oberfläche zu detektieren. Dies kann verwendet werden für die Visualisierung von Schwankungen, z. B. der Dichte bei verschiedenen Komponenten, in industriellen CT-Anwendungen oder für vor- und nachoperative Vergleiche in medizinischen Visualisierungsverfahren. Es versteht sich, dass die vorliegende Erfindung in verschiedenen Formen von Hardware, Software, Firmware, Spezialzweckprozessoren oder einer Kombination daraus implementiert werden kann. Bevorzugt ist eine Implementierung auf einer GPU (Graphics Processing Unit) mit OpenGL (Open Graphics Library) und der OpenGL Shading Language.
  • In einer Ausführungsform kann die vorliegende Erfindung in Software als ein Anwendungsprogramm implementiert werden. Das Anwendungsprogramm kann auf einer Maschine hochgeladen und auf ihr ausgeführt werden, die eine beliebige geeignete Architektur aufweist.
  • Unter Bezugnahme auf 7 kann gemäß einer Ausführungsform der vorliegenden Erfindung ein Computersystem 401 für GPU basiertes Raycasting unter anderem eine zentrale Verarbeitungseinheit (Central Processing Unit; CPU) 402, einen Speicher 403, und eine Eingabe-/Ausgabe (E-/A-)Schnittstelle 404 aufweisen. Das Computersystem 401 ist im Allgemeinen über die E-/A-Schnittstelle 404 mit einer Anzeigevorrichtung 405 und diversen Eingabevorrichtungen 106 wie z. B. eine Maus oder eine Tastatur gekoppelt. Die Zusatzschaltkreise können Schaltkreise wie z. B. Cache, Stromversorgung, Taktschaltungen und eine Kommunikationssammelleitungen umfassen. Der Speicher 403 kann ein Schreib-Lese-Speicher (Random Access Memory, RAM), ein Lese-Speicher (Read Only Memory, ROM), ein Diskettenlaufwerk, ein Bandlaufwerk, usw. oder eine Kombination davon umfassen. Die vorliegende Erfindung kann als ein Programmroutine 407, die im Speicher 403 gespeichert ist und von der CPU 402 ausgeführt wird, implementiert werden, um das Signal von der Signalquelle 408 zu verarbeiten. Das Computersystem 401 umfasst des Weiteren eine grafische Verarbeitungseinheit (Graphic Processing Unit; GPU) 409, zur Verarbeitung von Graphikanweisungen, z. B. zur Verarbeitung der Signalquelle 408, die Bilddaten aufweist. Als solches ist das Computersystem 401 ein allgemeines Mehrzweck-Computersystem, das zu einem Spezialzweck-Computersystem wird, wenn es das Programm 407 der vorliegenden Erfindung ausführt.
  • Die Computerplattform 401 enthält auch ein Betriebssystem und einen Mikrobefehlscode. Die verschiedenen, hierin beschriebenen Verfahren und Funktionen können entweder Teil des Mikrobefehlscodes oder Teil des Anwendungsprogramms (oder einer Kombination davon) sein, das von dem Betriebssystem ausgeführt wird. Darüber hinaus können verschiedene andere Peripheriegeräte wie z. B. eine zusätzliche Datenspeichereinrichtung und eine Druckeinrichtungen an die Computerplattform angeschlossen werden.
  • Es versteht sich des Weiteren, dass, da einige der einzelnen Systemkomponenten und Verfahrensschritte, die in den beigefügten Figuren dargestellt sind, in Software implementiert werden können, die tatsächlichen Verbindungen zwischen den Systemkomponenten (oder zwischen den Prozessschritten) abweichen können, in Abhängigkeit der Art und Weise, in der die vorliegende Erfindung programmiert ist. Mit der angegebenen Lehre der vorliegenden Erfindung, die hierin vorgelegt wird, wird der einschlägige Fachmann imstande sein, diese und ähnliche Ausführungen oder Konfigurationen der vorliegenden Erfindung zu berücksichtigen.
  • Die Erfindung ist nicht auf die im Ausführungsbeispiel beschriebenen Fälle beschränkt. Insbesondere ist vorstellbar, dass bei virtuellen Darstellungen in ganz anderen Bereichen als der Medizintechnik oder der Bauteilprüfung dieses Verfahren zum Einsatz kommt. Weitere Beispiele sind die Visualisierung von Produkten im Rahmen von Wirtschaft und Handel und Computerspiele.
    [1] Christoph Lürig, Thomas Ertl: Hierarchical volume analysis and visualization based an morphological Operators. IEEE Visualization 1998: 335–341
    [2] Dr. Ralph Knorpp, Dr. Dimitri Vitkin: Method for nondestructive wall thickness inspection, Patent Application number EP20010120835 , Daimler Chrysler AG (DE), 2002
    [3] C. Reinhart, C. Poliwoda, T. Guenther, W. Roemer, S. Maass, C. Gosch, „Modern Voxel Based Data and Geometry Analysis Software Tools for Industrial CT", 16th World Conference an NDT 2004
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 20010120835 [0044]
  • Zitierte Nicht-Patentliteratur
    • Luerig et al. [0007]
    • Knorpp et al. [0007]
    • Reinhart et al. [0007]
    • Christoph Lürig, Thomas Ertl: Hierarchical volume analysis and visualization based an morphological Operators. IEEE Visualization 1998: 335–341 [0044]
    • C. Reinhart, C. Poliwoda, T. Guenther, W. Roemer, S. Maass, C. Gosch, „Modern Voxel Based Data and Geometry Analysis Software Tools for Industrial CT”, 16th World Conference an NDT 2004 [0044]

Claims (17)

  1. Verfahren zur Visualisierung eines Objekts mittels simulierter Bestrahlung, umfassend a) Verwenden einer Darstellung des Objekts, bei welcher an Raumpunkten des Objekts Werte einer das Objekt charakterisierenden Größe gegeben sind, b) Generieren eines ersten Strahles zur Bestimmung eines einem Pixel für eine zweidimensionale Darstellung des Objekts zugeordneten Pixelfarbwerts, c) Propagieren des Strahles durch zumindest einen Teil des Objekts, d) schrittweise Ermitteln von Werten der Größe auf dem ersten Strahl, e) Detektieren einer Oberfläche des Objekts mittels der auf dem ersten Strahl ermittelten Werten, f) Generierung von wenigstens einem zweiten Strahl zur Bestimmung eines eine Eigenschaft des Objekts charakterisierenden quantitativen Werts, g) Propagieren des wenigstens einen zweiten Strahles von der Oberfläche aus durch zumindest einen Teil des Objekts, h) schrittweise Ermitteln von mit der charakteristischen Größe assoziierten Werten auf dem wenigstens einen zweiten Strahl, i) Bestimmung des eine Eigenschaft des Objekts charakterisierenden quantitativen Werts mittels des wenigstens einen zweiten Strahls, j) Zuordnen eines Farbwertes nach Maßgabe des quantitative Wertes, und k) Verwendung des Farbwertes für die Bestimmung des Pixelfarbwertes.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die charakterisierende Größe eine Dichte des Objekts ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass d') bei Schritt d) ein Zuordnen eines Farbwertes für die ermittelte Größe erfolgt.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass e') bei dem Schritt e) eine verfeinerte Detektion der Oberfläche im Bezug auf die bei Schritt d) verwendete Schrittweite vorgenommen wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass g') die Richtung der Propagation des wenigstens einem zweiten Strahls nach Maßgabe des Normalenvektors der Oberfläche festgelegt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass g'') der zweite Strahl propagiert wird, bis ein Abbruchkriterium erfüllt ist.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass das Abbruchkriterium nach Maßgabe des charakterisierenden Wertes definiert ist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der eine Eigenschaft des Objekts charakterisierenden quantitative Wert eine Länge ist.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass i') eine bzgl. der bei Schritt h) verwendeten Schrittweite verfeinerte Längenbestimmung vorgenommen wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass j') die Zuordnung eines Farbwertes gemäß Schritt j) mittels einer Transferfunktion vorgenommen wird, wobei die Transferfunktion nach Maßgabe zumindest eines darzustellenden Bestandteils des Objekts festgelegt ist.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass das Objekt ein Kopf eines Lebewesens ist, und die Transferfunktion zwecks Darstellung von Arterien für eine im Wesentlichen transparente Darstellung der Schädeldecke festgelegt ist.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nach dem Propagieren des wenigstens einen zweiten Strahls der erste Strahl von der Oberfläche aus weiter propagiert wird.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass mehrfach eine Propagation von wenigsten einem zweiten Strahl vorgenommen wird.
  14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Propagation des ersten Strahles abgebrochen wird, wenn im Rahmen der weiteren Propagation des Strahles kein signifikanter Beitrag zum Farbwert des Pixels ermittelbar ist.
  15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Zusammensetzung von bei dem Verfahren ermittelten Farbwerten zur Bestimmung des Pixelfarbwertes vorgenommen wird.
  16. Vorrichtung, die zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 15 ausgestaltet ist.
  17. Computerprogrammprodukt mit einem Computerprogramm, welches ein Verfahren nach einem der Ansprüche 1 bis 15 ausführt.
DE102009042327A 2009-09-21 2009-09-21 Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering Ceased DE102009042327A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102009042327A DE102009042327A1 (de) 2009-09-21 2009-09-21 Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering
US12/881,798 US20110069070A1 (en) 2009-09-21 2010-09-14 Efficient visualization of object properties using volume rendering
CN2010102892630A CN102024271A (zh) 2009-09-21 2010-09-20 借助体绘制有效地可视化对象特征

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009042327A DE102009042327A1 (de) 2009-09-21 2009-09-21 Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering

Publications (1)

Publication Number Publication Date
DE102009042327A1 true DE102009042327A1 (de) 2011-04-07

Family

ID=43705386

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009042327A Ceased DE102009042327A1 (de) 2009-09-21 2009-09-21 Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering

Country Status (3)

Country Link
US (1) US20110069070A1 (de)
CN (1) CN102024271A (de)
DE (1) DE102009042327A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120095341A1 (en) * 2010-10-19 2012-04-19 Toshiba Medical Systems Corporation Ultrasonic image processing apparatus and ultrasonic image processing method
US9390557B2 (en) 2011-08-11 2016-07-12 Siemens Aktiengesellschaft Floating volume-of-interest in multilayer volume ray casting
JP5866177B2 (ja) * 2011-11-10 2016-02-17 ソニー株式会社 画像処理装置および画像処理方法
CN102663803B (zh) * 2012-04-13 2014-11-26 北京工业大学 一种基于RayCasting改进算法的仿真投影DRR生成方法
US20140363073A1 (en) * 2013-06-11 2014-12-11 Microsoft Corporation High-performance plane detection with depth camera data
US10008026B2 (en) * 2013-07-19 2018-06-26 Toshiba Medical Systems Corporation Apparatus for, and method of, rendering image data
US9842424B2 (en) * 2014-02-10 2017-12-12 Pixar Volume rendering using adaptive buckets
EP3178068B1 (de) * 2014-09-23 2018-09-19 Siemens Healthcare GmbH Verfahren, visualisierungsvorrichtung und computerprogrammprodukt zur visualisierung eines dreidimensionalen objekts
US10354438B2 (en) * 2015-09-02 2019-07-16 Siemens Healthcare Gmbh Illumination in rendering of anatomy with functional information
EP3188131B1 (de) * 2015-12-29 2018-04-18 Siemens Healthcare GmbH Verfahren und visualisierungsvorrichtung zur volumetrischen visualisierung eines dreidimensionalen objekts
CN107169930A (zh) * 2016-03-07 2017-09-15 华为技术有限公司 图像处理方法和装置
CN105954764B (zh) * 2016-04-27 2018-10-23 东南大学 一种基于椭球的gnss电离层层析投影矩阵获取方法
WO2018159709A1 (ja) * 2017-02-28 2018-09-07 富士フイルム株式会社 3次元画像処理装置および方法並びにプログラム
US11398072B1 (en) * 2019-12-16 2022-07-26 Siemens Healthcare Gmbh Method of obtaining a set of values for a respective set of parameters for use in a physically based path tracing process and a method of rendering using a physically based path tracing process

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001120835A (ja) 1999-10-26 2001-05-08 Enix Corp ビデオゲーム装置およびプログラムを格納した記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5442733A (en) * 1992-03-20 1995-08-15 The Research Foundation Of State University Of New York Method and apparatus for generating realistic images using a discrete representation
US6674430B1 (en) * 1998-07-16 2004-01-06 The Research Foundation Of State University Of New York Apparatus and method for real-time volume processing and universal 3D rendering
US6862025B2 (en) * 2002-02-28 2005-03-01 David B. Buehler Recursive ray casting method and apparatus
US7012604B1 (en) * 2002-09-12 2006-03-14 Advanced Micro Devices, Inc. System architecture for high speed ray tracing
US8150111B2 (en) * 2005-03-15 2012-04-03 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for processing three-dimensional image data to render an image from a viewpoint within or beyond an occluding region of the image data
JP4205683B2 (ja) * 2005-03-23 2009-01-07 ザイオソフト株式会社 画像処理方法および画像処理プログラム
US7755625B2 (en) * 2005-05-04 2010-07-13 Medison Co., Ltd. Apparatus and method for rendering volume data
US8041129B2 (en) * 2006-05-16 2011-10-18 Sectra Ab Image data set compression based on viewing parameters for storing medical image data from multidimensional data sets, related systems, methods and computer products
US8159490B2 (en) * 2007-10-16 2012-04-17 Dreamworks Animation Llc Shading of translucent objects

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001120835A (ja) 1999-10-26 2001-05-08 Enix Corp ビデオゲーム装置およびプログラムを格納した記録媒体

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Andries van Dam: "Raytraycing Basics", Oct. 30, 2001, S. 1/39-39/39 *
C. Reinhart, C. Poliwoda, T. Guenther, W. Roemer, S. Maass, C. Gosch, "Modern Voxel Based Data and Geometry Analysis Software Tools for Industrial CT", 16th World Conference an NDT 2004
Christoph Lürig, Thomas Ertl: Hierarchical volume analysis and visualization based an morphological Operators. IEEE Visualization 1998: 335-341
Knorpp et al.
Luerig et al.
Matthias Bonn: "Computer-Tomographie", Seminar WS 1999/2000: Robotik in der Medizin, Univ. Karlsruhe, 2000, S. 1-23 & 2 S. Bibliographie *
Reinhart et al.
Stefan Wesarg: "Medical Imaging", Fraunhofer IGD, 2006, 98 Sheets *

Also Published As

Publication number Publication date
CN102024271A (zh) 2011-04-20
US20110069070A1 (en) 2011-03-24

Similar Documents

Publication Publication Date Title
DE102009042327A1 (de) Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering
DE102009042328B4 (de) Effiziente Bestimmung von Lichteffekten beim Volume Rendering
DE102005035012B4 (de) Hochleistungsschattierung von großen volumetrischen Daten unter Verwendung von partiellen Schirmraumableitungen
DE3789650T2 (de) Verfahren und System zur Festkörpermodellierung.
DE69822590T2 (de) System zur Flächendarstellung mit volumetrischen Abstandskarten
EP2038847B1 (de) Verfahren und vorrichtung zur darstellung von 3d bilddatensätzen auf 2d bildern
DE102006009255B4 (de) Bildverarbeitungsverfahren und Bildverarbeitungsgerät
DE69020780T2 (de) Vielfache Tiefenpuffer für Graphik und Festkörpermodellierung.
DE10353883A1 (de) Verfahren und Einrichtung zum Messen Krankheits-relevanter Gewebeveränderungen
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE102007008224A1 (de) System und Verfahren für eine Inkontext-Volumenvisualisierung unter Verwendung eines virtuellen Schnitts
DE102012113011A1 (de) Verfahren und System zum Anzeigen der Lichtrichtung für ein volumengerendertes Bild
DE102013114176A1 (de) Tessellieren von Oberflächendatensegmenten beim kachelbasierten Rendern von Computergrafik
US9224236B2 (en) Interactive changing of the depiction of an object displayed using volume rendering
EP1861822B1 (de) Verfahren und vorrichtung zur konturfeinermittlung eines objekts bei bildgebenden untersuchungsverfahren
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE102011076878A1 (de) Verfahren und Vorrichtung zur effizienten Editierung eines dreidimensionalen Volumens mittels Ray Casting
US20090303236A1 (en) Method and system for explicit control of lighting type in direct volume rendering
DE102020128288A1 (de) Computerimplementiertes Verfahren zur Ermittlung mindestens eines für eine Auswertung von Messdaten benötigten geometrischen Parameters
DE102012217089A1 (de) Schichtdarstellung von Volumendaten
DE102012214604A1 (de) Schichtdarstellung von Volumendaten
DE102013213010B3 (de) Bildgebungsverfahren für kernspintomographische Diffusionsdaten, Computerprogrammprodukt und Bildgebungsvorrichtung
DE102012205847A1 (de) Bilderzeugung mit Mehrfachauflösung
DE102010022285A1 (de) Verfahren zur Bestimmung der optimalen Lage eines Messobjektes bei der 3D-Computertomografie

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final