DE102009042328B4 - Effiziente Bestimmung von Lichteffekten beim Volume Rendering - Google Patents

Effiziente Bestimmung von Lichteffekten beim Volume Rendering Download PDF

Info

Publication number
DE102009042328B4
DE102009042328B4 DE102009042328.1A DE102009042328A DE102009042328B4 DE 102009042328 B4 DE102009042328 B4 DE 102009042328B4 DE 102009042328 A DE102009042328 A DE 102009042328A DE 102009042328 B4 DE102009042328 B4 DE 102009042328B4
Authority
DE
Germany
Prior art keywords
value
influence
mixed color
color value
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009042328.1A
Other languages
English (en)
Other versions
DE102009042328A1 (de
Inventor
Dr. Engel Klaus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102009042328.1A priority Critical patent/DE102009042328B4/de
Priority to US12/881,777 priority patent/US9001124B2/en
Priority to CN201010290366.9A priority patent/CN102024269B/zh
Publication of DE102009042328A1 publication Critical patent/DE102009042328A1/de
Application granted granted Critical
Publication of DE102009042328B4 publication Critical patent/DE102009042328B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

Verfahren zur zweidimensionalen Darstellung eines Objekts mittels Volume Rendering, umfassend- Erzeugung einer Darstellung des Objekts mit Hilfe eines Meßsystems, wobei bei der Darstellung an Raumpunkten des Objekts Werte einer die Dichte des Objekt charakterisierenden Größe gegeben sind,- Ermitteln eines gemischten Farbwerts für die Darstellung als Pixel auf einem Bildschirm mittels eines Volume Rendering Verfahrens unter Verwendung eines Ray-Casting Strahls, welches kein oder ein lokales Beleuchtungsmodell verwendet,- Simulieren wenigstens eines von einer Oberfläche des Objekts ausgehenden Strahls zur Ermittlung des Einflusses von Schattenbildung oder des Einflusses von Umgebungsverdeckung, wobei die Startposition auf der Oberfläche für den wenigstens einen Strahl durch ein erstes Auftreffen des Ray-Casting Strahls auf dem Objekt definiert ist,- Ermittlung eines Wertes für den Einfluss von Schattenbildung oder eines Wertes für den Einfluss von Umgebungsverdeckung mittels des wenigstens einen Strahls, und- Kombinieren des gemischten Farbwertes mit dem ermittelten Wert, um einen gemischten Farbwert zu erhalten, bei dem der Einfluss von Schattenbildung oder Umgebungsverdeckung berücksichtigt ist.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur zweidimensionalen Darstellung eines Objekts mittels Volume Rendering.
  • Die Erfindung liegt auf dem Gebiet des Volume Rendering, d.h. der Darstellung bzw. Visualisierung von dreidimensionalen Körpern bzw. Objekten. Die Modellierung, Rekonstruktion oder Visualisierung von dreidimensionalen Objekten hat einen weiten Anwendungsbereich in den Feldern Medizin (z.B. CT, PET, MR, Ultraschall), Physik (z.B. Elektronenstruktur großer Moleküle) oder Geophysik (Beschaffenheit und Lage von Erdschichten). Typischerweise wird das zu untersuchende Objekt bestrahlt (z.B. mittels elektromagnetischer Wellen oder Schallwellen), um seine Beschaffenheit zu untersuchen. Die gestreute Strahlung wird detektiert und aus den detektierten Werten werden Eigenschaften des Körpers ermittelt. Üblicherweise besteht das Ergebnis in einer physikalischen Größe (z.B. Dichte, Anteil von Gewebebestandteilen, Elastizität, Geschwindigkeit), deren Wert für den Körper ermittelt wird. Dabei verwendet man in der Regel ein virtuelles Gitter, an dessen Gitterpunkten der Wert der Größe ermittelt wird. Diese Gitterpunkte bzw. die Werte der Größe an diesen Orten werden üblicherweise als Voxel bezeichnet. Diese liegen häufig in der Form von sog. Grauwerten vor.
  • Mittels Volume Rendering wird aus den Voxeln eine dreidimensionale Darstellung des untersuchten Objekts bzw. Körpers auf einer zweidimensionalen Darstellungsfläche (z.B. Bildschirm) erzeugt. Dabei werden aus den Voxeln sog. Pixel erzeugt (häufig mit der Zwischenstufe von aus den Voxeln durch Interpolation gewonnenen Objektpunkten), aus welchen das Bild der zweidimensionalen Bildanzeige zusammengesetzt ist. Um auf einer zweidimensionalen Anzeige drei Dimensionen zu visualisieren, wird in der Regel ein sog. Alpha-Compositing bzw. eine Alpha-Zerlegung vorgenommen. Bei dieser Standardmethode werden Voxeln bzw. aus Voxeln gebildeten Volumenpunkten sowohl Farben als auch Durchlässigkeitswerte, genauer gesagt Werte für die Undurchlässigkeit bzw. Opazität (üblicherweise bezeichnet mit dem englischen Begriff Opacity, der die Durchlässigkeit bzw. die Deckkraft verschiedener Schichten des Körpers ausdrückt) zugeordnet. Konkreter werden einem Objektpunkt üblicherweise drei Farben in Form eines Drei-Tupels, der die Anteile der Farben rot, grün und blau kodiert (sog. RGB-Wert), und ein sog. Alpha-Wert, der die Undurchlässigkeit parametrisiert, zugeordnet. Zusammen bilden diese Größen einen Farbwert RGBA, der mit den Farbwerten anderer Objektpunkte zu einem Farbwert für das Pixel kombiniert bzw. gemischt werden (für die Visualisierung von teilweise transparenten Objekten üblicherweise mittels eines sog. alpha blending) .
  • Für die Zuordnung eines passenden Farbwertes wird meist mit einem Beleuchtungsmodell gearbeitet. Dieses Beleuchtungsmodell berücksichtigt Lichteffekte (in der Regel Reflexionen des Lichtes an Oberflächen des Objektes; dabei kann es sich um die äußere Oberfläche oder um Oberflächen innere Schichten des untersuchten Objektes handeln) bei einer zum Zwecke der Visualisierung modellierten bzw. simulierten Bestrahlung des Objektes.
  • Es gibt in der Literatur eine Reihe von Beleuchtungsmodellen, die angewandt werden. Gebräuchlich ist z.B. das Phong- oder Blinn-Phong-Modell.
  • Eines der meistbenutzten Verfahren zum Volume Rendering ist das sog. Ray-Casting bzw. die Simulation einer Lichteinstrahlung zur Darstellung bzw. Visualisierung des Körpers. Beim Ray-Casting werden imaginäre Strahlen, die vom Auge eines imaginären Betrachters ausgehen, durch den untersuchten Körper bzw. das untersuchte Objekt gesendet. Entlang der Strahlen werden für Abtastpunkte RGBA-Werte aus den Voxeln bestimmt und zu Pixeln für ein zweidimensionales Bild mittels Alpha Compositing bzw. Alpha Blending vereinigt. Beleuchtungseffekte werden dabei üblicherweise mittels eines der oben abgesprochenen Beleuchtungsmodelle im Rahmen eines mit „Shading“ bezeichneten Verfahrens berücksichtigt.
  • Für Anwendungen, bei denen im Zuge von Manipulationen (Perspektivenwechsel, Einfärbungen, Clippings, ...) das Volume Rendering bei jeder Änderung neu durchgeführt wird, werden in der Regel vom Beleuchtungsmodell nur lokale Effekte berücksichtigt, weil es sonst für den User zu inakzeptablen Verzögerungen während der Anwendung käme. Dies führt aber zu signifikanten Qualitätseinbußen. Eine realistischere Darstellung lässt sich durch Methoden erreichen, die auch globale Effekte berücksichtigen. Dabei ist es sinnvoll, wegen des unterschiedlichen Vorgehens bei der Berechnung zwei wesentliche Effekte zu unterscheiden. Der erste Effekt ist die Schattenbildung (Shadows). Dieser Effekt führt daher, dass für einen Punkt auf einem simulierten Strahl durch ein Objekt der Pfad zwischen dem Punkt und der vorhandenen Lichtquelle bzw. den Lichtquellen Hindernisse aufweist, d.h. der Lichtstrahl nicht ungehindert den Punkt erreichen kann. Die konzeptionell einfachste Methode zur Berechnung dieses Schatteneinflusses ist von dem betrachteten Punkt aus einen Strahl Richtung Lichtquelle zu schicken (bzw. Strahlen zu den verschiedenen Lichtquellen zu schicken), um so zu ermitteln, welche Anteile des Lichtes zu dem Punkt durchdringen kann.
  • Davon zu unterscheiden ist der Effekt von Streulicht (in der Fachliteratur ist der Ausdruck „ambient occlusion“ bzw. Umgebungsverdeckung üblich). Dieser Effekt ist auf Streulicht zurückzuführen und daher sehr wichtig, weil der Strukturen sichtbar macht, die allein durch das direkte Licht nicht sichtbar werden. Generell führt die Lichtstreuung erst einmal dazu, dass auf ein Objekt Licht aus allen Richtungen trifft. Dieses Streulicht kann durch Materie absorbiert werden, so dass sich eine ungleichmäßige Erhellung des Objekts durch den Streulichtanteil ergibt. Ein typisches Beispiel für diesen Effekt sind die Ecken eines Zimmers, welche als dunkler erscheinen als dessen Zentrum. Die Absorption vom Streulicht wird z.B. mit derselben Methode untersucht, mit der auch die Schattenbildung ermittelt wird. Da das Streulicht aber von keiner festen Quelle, sondern von allen Richtungen kommt, werden Strahlen in stochastischer Weise von einer Hemisphäre, die lokal mit einer Oberfläche übereinstimmt, gesendet, und so überprüft, wie viel Streulicht absorbiert wird. Man spricht bei dem Versenden von Strahlen zur Ermittlung von Beleuchtungseigenschaften von Ray-Tracing, und im Fall von stochastischer Strahlabtastung mittels „ambient occlusion“ von Monte Carlo Ray-Tracing. Eine Definition für „ambient occlusion“ wurde von Zhukov et al. [4] aufgestellt. Demzufolge ist der Wert der „ambient occlusion“ an einem Punkt einer Oberfläche die Lichtmenge des Umgebungslichts, welche diesen Punkt erreichen kann.
  • Das Problem von Ray-Tracing-Verfahren ist der hohe Aufwand. Von jedem Abtastpunkt auf dem simulierten Strahl werden Strahlen erzeugt (einer für jede Lichtquelle und eine Vielzahl für die „ambient occlusion“). Auch im Hinblick auf diesen Aufwand wird in Bezug auf die Ray-Tracing-Verfahren auch von „brüte force“ Verfahren gesprochen. Der entsprechende Aufwand ist für interaktive Änderungen der Darstellung des Objektes in der Regel zu hoch, weshalb derzeit häufig auf eine realistischere Darstellung von Beleuchtungseffekten verzichtet wird, obwohl es sich bei Schatten und Umgebungsverdeckung um globale Effekte handelt. Derzeitige Verfahren, die globale Beleuchtungseffekte berücksichtigen, benötigen entweder eine erhebliche Vorbearbeitung (pre-processing) der Daten oder/und den Aufbau von zusätzlichen vorberechneten Datenstrukturen (deep shadow maps [2], shadow mapping [1], summed area tables [5], computing local histogramms [6], vicinity shading [7]). Andere Verfahren sind von ihren Anwendungsmöglichkeiten begrenzt (half-angle slicing [1] ist z.B. nicht auf Ray-Casting anwendbar).
  • Die Schriften YAGEL, Roni; KAUFMAN, Arie; ZHANG, Qiang: Realistic volume imaging, in: Proceedings of the 2nd conference on Visualization'91, 1991, S. 226-231, sowie YAGEL, R. et al.: Discrete Ray Tracing, IEEE Computer Graphics and Applications, Vol. 12, 1992, S. 19-28, offenbaren eine diskrete Raytracing-Methode. In einer vorverarbeitenden Voxelisierungsphase wird das geometrische Modell in seine diskrete voxelbasierte Darstellung innerhalb eines 3D-Rasters umgewandelt.
  • Die Schrift KONTKANEN, Janne; LAINE, Samuli: Ambient occlusion fields, in: Proceedings of the 2005 symposium on lnteractive 30 graphics and games, 2005, S. 41-48, offenbart ein Verfahren zur Berechnung von Okklusionseffekten. Für jedes okkludierende Objekt wird ein Näherung für durch das Objekt verursachte Okklusionen vorberechnet.
  • Die Schrift SHANMUGAM, Perumaal; ARIKAN, Okan: Hardware accelerated ambient occlusion techniques on GPUs, in: Proceedings ofthe 2007 symposium on Interactive 30 graphics and games, 2007, S. 73-80, offenbart eine Näherungsverfahren zur Berechnung von Okklusionseffekten. Dabei wird ein Multi-Pass Algorithmus verwendet, der das Problem der Umgebungsokklusion in hochfrequente und niederfrequente Okklusionseffekte zerlegt.
  • In der US 5 442 733 A wird ein Verfahren zum Erzeugen realistischer Bilder unter Verwendung diskreter Darstellungen offenbart, bei der eine diskrete voxelbasierte Darstellung der Szene innerhalb eines dreidimensionalen kubischen FrameBuffers verwendet wird.
  • Die US 2009 / 0 153 557 A1 offenbart ein GPU-basiertes Renderingverfahren, bei dem für jedes Darstellungspixel eine Okklusions-Berechnung durchgeführt wird.
  • Die US 2002 / 0 018 063 A1 offenbart ein Verfahren für das Shadow Mapping beim Rendern eines Grundkörpers in einer Grafikpipeline.
  • Die Schrift DACHSBACHER, C., et al.: Reflective shadow maps, in Proceedings of the 2005 Symposium on Interactive 3D Graphics and Games, ACM, New York, 2005, S. 203-208, offenbart einen Algorithmus für interaktives Rendering einer indirekten Beleuchtung. Dabei wird eine reflektierende Shadow Map als Erweiterung einer Standard-Shadow-Map vorgeschlagen, bei der jedes Pixel als indirekte Lichtquelle betrachtet wird.
  • Es ist Aufgabe der vorliegenden Erfindung, eine aufwandsarme Darstellung von Lichteffekten zu ermöglichen.
  • Die Aufgabe wird durch die Ansprüche gelöst.
  • Erfindungsgemäß wird von einem Volume Rendering ohne oder nur mit lokalem Beleuchtungsmodell (z.B. Blinn-Phong Modell) für die Darstellung eines Objekts ausgegangen.
  • Das Objekt liegt dabei in Form von Voxeln vor, d.h. in Form von an Raumpunkten des Objekts gegebenen, skalaren Werte einer das Objekt charakterisierenden Größe (z.B. der Dichte). In anderen Worten ist ein skalares Feld als Funktion des Ortes für eine Vielzahl von Raumpunkten gegeben. Im Folgenden wird im Bezug auf diese Darstellung des Objektes durch Voxel auch der Begriff 3D-Darstellung des Objektes verwendet.
  • Volume Rendering bildet die 3D-Darstellung auf zwei Dimensionen für die Anzeige durch einen Bildschirm ab. Konkreter liefert diese Abbildung Pixel bzw. Bildpunkte für ein 2D-Bild. Im Folgenden wird der Begriff Voxel ausschließlich für 3D-Darstellungen und Pixel ausschließlich für 2D-Darstellungen verwendet.
  • Die Voxel werden z.B. durch ein Meßsystem erhalten. Typisch sind z.B. Messungen mittels Computertomographie, welche für verschiedene Aufnahmepositionen Projektionen liefern, aus welchen die Voxel rekonstruiert werden. Andere Möglichkeiten sind Ultraschallverfahren oder Kernspinaufnahmen. Die Voxel liegen dann üblicherweise in der Form von sog. Grauwerten vor, welche ein Maß für die jeweilige Dichte des Objekts an diesem Ort darstellen.
  • Derzeit sind vielfach direkte Volume Rendering Verfahren üblich, z.B. Ray-Casting. Dieses läuft in der Regel so ab, dass auf das Objekt einfallende Sehstrahlen simuliert werden. Entlang des Sehstrahls werden Werte der charakterisierenden Größe ermittelt, den ermittelten Werten Farbwerte zugeordnet und die Farbwerte für die Darstellung als Pixel auf einem Bildschirm zu einem gemischten Farbwert (RGB -evtl. drei Werte) überlagert. Der gemischte Farbwert liegt meist in der Form von RGB-Werten bzw. RGBA-Werten vor. Der Begriff „Farbwert“ soll dabei die verschiedenen Formen von Farbdarstellung umfassen. Insbesondere soll dieser Begriff auch die Darstellung in der Form von drei oder vier Werten als RGB-bzw. RGBA-Werte beinhalten.
  • Erfindungsgemäß wird das Ergebnis des Volume Renderings korrigiert, um so globale Lichteffekte zu berücksichtigen. Konkret geht es dabei um die Effekte der Schattenbildung (shadows) und der Umgebungsverdeckung (ambient occlusion).
  • Es wird wenigstens für eine dieser beiden Effekte eine Korrektur vorgenommen. Die Ermittlung bzw. Bestimmung dieser Korrektur ist ähnlich für beide Fälle. Es wird wie bei einer „brüte force“ Berechnung wenigstens ein Strahl simuliert, der als Teststrahl abschnittsweise Beiträge zu den Lichteffekten erfasst. Die Beiträge entlang eines Strahles werden dann zu einem Gesamtbeitrag des Strahles akkumuliert. Die Anzahl der Strahlen und deren Richtung hängen in der Regel von dem untersuchten Effekt ab. Zur Berücksichtigung der Schatten wird vorzugsweise ein Teststrahl in Richtung jeder Lichtquelle gesendet. Für die Umgebungsverdeckung wird eine Vielzahl von Teststrahlen in unterschiedliche, z.b. stochastisch ausgewählte Richtungen gesendet. Dabei kann eine Ermittlung von beiden Effekten in einem Schritt ablaufen, wobei ggfl. einer oder ein Teil der simulierten Strahlen für beide Effekte verwendet wird. Bei einer Mehrzahl von Strahlen (z.B. Vielzahl von Strahlen für Umgebungsverdeckung) werden üblicherweise die Resultate für die einzelnen Strahlen zu einem Resultat vereinigt, wobei eine Gewichtung der einzelnen Strahlen erfolgen kann.
  • Im Gegensatz zu den herkömmlichen „brüte force“ Verfahren erfolgt die Korrekturberechnung nicht für die einzelnen Abtastwerte z.B. eines Strahls beim Ray Casting, sondern in der Regel nur einmal per Ray Casting Strahl bzw. einmal pro gemischten Farbwert bzw. Pixel.
  • Der Startpunkt für die Teststrahlen zur Ermittlung einer Korrektur bzgl. Schatten und/oder Umgebungsverdeckung befindet sich auf einer Oberfläche des Objekts. Dabei handelt es sich vorzugsweise um eine äußere Oberflache. Es kann aber auch nach Maßgabe der Objektzusammensetzung sinnvoll sein, von einer inneren Oberfläche zu starten (evtl. wenn die äußerste Material- bzw. Gewebeschicht des Objekts praktisch transparent ist).
  • Bei einem Ray Casting Verfahren wäre der Startpunkt z.B. der Eintrittspunkt (sinnvoll bei einem „front-to-back Verfahren) eines simulierten Ray Casting Strahls in das Objekt oder der Austrittpunkt (sinnvoll bei einem „back-to-front Verfahren) aus dem Objekt.
  • Mittels wenigstens eines Teststrahls wird ein Wertes für den Einfluss von Schattenbildung oder ein Wert für den Einfluss von Umgebungsverdeckung (vorzugsweise Werte für beide Effekte) ermittelt.
  • Der beim Volume Renderung erhaltene gemischte Farbwert wird mit dem ermittelten Wert kombiniert, um einen gemischten Farbwert zu erhalten, bei dem der Einfluss von Schattenbildung oder Umgebungsverdeckung (vorzugsweise beides) berücksichtigt ist. Dabei handelt es sich in der Regel um eine Kombination von dem gemischten Farbwert mit nur bzw. ausschließlich dem ermittelten Wert für die Berücksichtigung des Einflusses von Schattenbildung bzw. des Einflusses von Umgebungsverdeckung (abgesehen von der etwaigen Berücksichtigung der Effekte durch lokale Beleuchtungsmodelle beim Schritt des Volume Renderings).
  • Es ist eine für die Erfindung entscheidende Erkenntnis, dass die vorgenommene Approximation, nämlich für den gemischten Farbwert bzw. für ein Pixel nur eine bzw. genau eine Berechnung der Effekte „Schatten“ und/oder „Umgebungsverdeckung“ durchzuführen, für viele Klassen von Objekten gegenüber der korrekten Vorgehensweise, die z.B. die Korrektur für ein Pixel für Abtastwerte entlang eines gesamten Ray Casting Strahls durchführt, zu einer sehr geringen Qualitätseinbuße führt. In gewisser Weise hat man statt einer Korrektur auf Voxel-Ebene eine Korrektur auf Pixel-Ebene bzw. im 2D-Raum.
  • Dagegen ist der Aufwand erheblich (mehr als eine Größenordnung) geringer, so dass Neuberechnungen auf derzeit üblicher Hardware schnell genug für interaktive Operationen des visualisierten Objekts (Drehen, Bearbeiten, Verändern der Lichtquellen, ...) durchgeführt werden können.
  • Der Aufwand kann gemäß Ausgestaltungen des Erfindungsgegenstandes weiter reduziert werden, indem die Länge der Teststrahlen beschränkt wird oder indem eine Berechnung der Effekte Schatten und/oder Umgebungsverdeckung nur für einen Teil der Pixel durchgeführt wird und die fehlenden Werte durch Interpolation der berechneten gewonnen wird.
  • Weitere vorteilhafte Ausgestaltungen des Erfindungsgegenstandes sind in Unteransprüchen angegeben.
  • Im Folgenden wird der Erfindungsgegenstand im Rahmen eines Ausführungsbeispiels anhand von Figuren näher erläutert. Es zeigen
    • 1 eine Illustration von Umgebungsverdeckung
    • 2 eine schematische Darstellung eines erfindungsgemäßen Verfahrens
    • 3 eine erfindungsgemäße Zusammensetzung eines Bildes
    • 4 ein Vergleich von Bildern zur Verdeutlichung der Bildqualität von erfindungsgemäß erzeugten Bildern
    • 5 Darstellung von drei Bestandteilen, aus denen erfindungsgemäß ein Bild zusammengesetzt wird
    • 6 Vergleich der Bildqualität für verschiedene Beleuchtungsmodelle
    • 7 eine Hardwarestruktur zur Durchführung des erfindungsgemäßen Verfahrens
  • „Ambient occlusion“ bzw. Umgebungsverdeckung ist ein vereinfachter Zugang, um den Effekt von Streulicht in einer Umgebung um das Objekt zu berechnen. Dieses Licht kommt üblicherweise von allen Richtungen. Auf Grund von lokaler Schattenbildung erreicht weniger Licht Höhlungen und Ecken des Objekts, so dass diese dunkler als glatte Bereiche aussehen. Ein direkter (brute force) Zugang zur Approximation derartiger Streulichteffekte wäre eine große Anzahl von simulierten Teststrahlen in verschiedene Richtungen für jede Abtastposition beim Ray-Casting zu senden, um so Licht absorbierende Strukturen zu detektieren und die entsprechende Lichtabsorption zu berücksichtigen. Falls die Abtastposition auf einer impliziten Oberfläche liegt, ist es ausreichend, die Strahlen über eine Hemisphäre oberhalb der impliziten Oberfläche zu versenden. Dies ist in 1 näher dargestellt. Im Fall a aus 1 werden Strahlen über eine Halbkugel verteilt gesendet. Diese treffen auf kein Hindernis, so dass hier keine Abdunkelung im Zuge der Umgebungsverdunklung auftritt. Im Fall b ist rechter Hand eine absorbierende Wand gegeben, die in dem gezeigten Fall praktisch die Hälfte der Strahlen absorbiert, so dass ungefähr 50 % occlusion bzw. Verdunkelung vorherrscht. Im Fall c ist oben eine kugelförmige Absorptionsstruktur vorhanden, so dass ungefähr ein Drittel der Strahlen (in Bild 3 Strahlen von 9) absorbiert werden. In diesem Fall hätte man ca. 33 % occlusion bzw. Absorption.
  • Eine direkte Methode (brute force) würde eine ganz erhebliche Menge von Rechenzeiten und Speicher benötigen, da eine große Anzahl von Abtastpunkten während eines Ray-Castings abgetastet werden müssen. Dieselbe Überlegung gilt für die globale Berechnung von Schatten, d.h. das Abschirmen von der Direkteinstrahlung von Licht aus den Lichtquellen bei der Simulation. Für die Schatten wären bei einem „brüte force“ Algorithmus Teststrahlen in die Richtung von jeder Lichtquelle zu senden. Diese Vorgehensweise beinhaltet einen ganz erheblichen Aufwand, der insbesondere interaktive Manipulationen des visualisierten Objektes (respektiven Wechsel, Bearbeitung des Objektes ...) in Echtzeit unmöglich macht. Hier setzt die Erfindung an. Eine Ausführungsform der Erfindung wird nun anhand von 2 näher dargestellt. In einem ersten Schritt wird ein übliches Ray-Casting Verfahren (mit lokalem Beleuchtungsmodell oder völlig ohne Berücksichtigung von Beleuchtungseffekten) durchgeführt. Als Ergebnis erhält man mittels Alpha-Blending gemischte RGB-Werte, welche sozusagen eine erste Näherung für das zu berechnende Pixel darstellen. Dabei können auch durch stochastisches Jittering Abtastartefakte unterdrückt werden.
  • In einem zweiten Schritt werden von einer Oberfläche des Objektes Teststrahlen in Richtung der Lichtquellen ausgesendet, um den Einfluss von Schatten zu ermitteln. Das Ergebnis ist ein Wert zwischen 0 und 1, der ein Maß für den Schatteneinfluss darstellt (0 = vollständig beschattet, 1 = kein Schatten). Die Teststrahlen bzw. Schattenstrahlen treffen entweder auf absorbierende Strukturen und akkumulieren Schattenwirkung oder erreichen das Licht ungehindert. Das Ergebnis aller Schattenstrahlen kann zu einem mit Grauwerten gebildeten Schattenbild zusammengesetzt werden.
  • In einem dritten Schritt wird die globale Streulichtabsorption berücksichtigt. Wieder werden von einer Oberfläche des Objektes Teststrahlen ausgesendet und zwar in einer Anzahl von zufällig ausgewählten Richtungen oberhalb einer Hemisphäre der Oberfläche (vgl. 1). Die Materie bzw. das Volumen, auf das entlang der Strahlen getroffen wird, wird bezüglich ihres Einflusses bewertet und zu einem Gesamtwert akkumuliert. Die Ergebnisse können zu einem Bild zusammengesetzt werden.
  • Schritte 2 und 3 können auch kombiniert werden; dabei ist zu berücksichtigen, dass eventuell einzelne Strahlen sowohl für die Berechnung der Schatten als auch der Streulichtabsorption verwendet werden können.
  • In einem vierten Schritt wird das Ergebnis der Streulichtabsorptionsberechnung gefiltert, beispielsweise mit einem Gausfilter oder einem bilateralen Filter. Optional kann das Schattenbild ebenfalls eine solche Filterung erfahren.
  • In einem fünften Schritt werden die Ergebnisse aus dem ersten, zweiten und dritten Schritt miteinander kombiniert. Ein kombinierter Farbwert ORGBA (d.h. eine resultierender RGBA-Wert) kann z.B. mit den unten angegebenen Vorschriften a. - d. ermittelt werden. Dabei steht ORGB für den RGB-Anteil, OA für den alpha-Wert, VRT (volume rendering technique) bzw. VRTRGBA für das im ersten Schritt mittels herkömmlichen Volume Rendering ermittelte Ergebnis. Dabei kann Shading im Rahmen eines lokalen Beleuchtungsmodell oder auch gar nicht (vgl. VRT_UnshadedRGB in Vorschrift d.) berücksichtigt sein. SH (Shading) ist das Ergebnis des zweiten Schritts für die Schattenberechnung und AO (ambient occlusion) das Ergebnis des dritten Schrittes für die Umgebungsverdunklung. Der Ausdruck „ambient“ ist ein Faktor der aus einem lokalen Beleuchtungsmodell kommt, z.B. Phong-Modell. Er stellt in diesem Modell eine von der Einfallsrichtung des reflektierten Lichtes unabhängige Komponente des reflektierten Lichtes dar, deren Wert als Produkt von der Intensität des Umgebungslichts und einer Materialkonstante ausgedrückt werden kann. Mit diesen Bezeichnungen können folgende Vorschriften verwendet werden:
    1. a. ORGB = VRTRGB * SH + ambient * AO * VRT RGB, OA = VRTA
    2. b. ORGB = VRTRGB * SH + ambient * AO, OA = VRTA
    3. c. ORGB = VRTRGB * SH * AO, OA = VRTA
    4. d. ORGB = VRTRGB * SH + ambient * AO * VRT_UnshadedRGB, OA = VRTA
  • Gemäß der Erfindung wird somit die aufwendige Schatten- und Verdunkelungsberechnung sozusagen im Raum des Bildschirmes bzw. der Pixel vorgenommen, d.h. für jedes Pixel auf dem Bildschirm wird jeweils nur eine Schattenberechnung bzw. Verdunkelungsberechnung durchgeführt und nicht mehr entlang eines Strahles. Dies ist eine Näherung und im Prinzip ungenauer als „brüte force“ Verfahren, die entlang eines ganzen Strahles Schatten und Umgebungsverdunkelung berechnen. Diese Näherung führt jedoch, wie im Folgenden anhand von Figuren gezeigt wird, zu qualitativ kaum beeinträchtigten Ergebnissen für viele Objekte.
  • Das Verfahren funktioniert gut mit Transferfunktionen mit niedriger Transparenz. Transferfunktionen mit großen semitransparenten Teilen können in Bildartefakten enden. Jedoch sind undurchlässige Transferfunktionen sehr gebräuchlich, beispielsweise bei der Knochenvisualisierung in medizinischen Applikationen oder für die Visualisierung von industriellen CT-Datensätzen.
  • Da Umgebungsverdunklung und Schatten Effekte mit einer niedrigen Frequenz bzw. niedrigen Variation sind, kann eine unterschiedliche Auflösung bei dem Verfahren zur Anwendung kommen, d.h. dass Schatten (SH) und Umgebungsverdunkelung (AO) mit einer geringeren Auflösung als das ursprüngliche Volume Rendering (VRT) berechnet werden. Für die Verknüpfung der VRT, SH und AO Bilder kann dann bei den Bildern mit niedrigerer Auflösung, d.h. SH und AO Bilder, interpoliert werden.
  • 3 zeigt anschaulich wie das Verfahren funktioniert. Links oben mit der Beschriftung VRT ist ein Bild gezeigt, welches herkömmlich ohne globale Beleuchtungseffekte aufgenommen wurde. Darunter ist das sogenannte „First-Hit“-Bild gezeigt, d.h. das Bild, das von dem ersten Auftreffen der Strahlen auf einen Absorber erhalten wird. Es ist interessant zu bemerken, dass dieses „First Hit“-Bild dem vollständigen Bild darüber schon sehr nahekommt. Dieses Bild liefert dann die Startpositionen für die globale Berechnung der Schatten (Bild „Shadows“) und der Umgebungsverdunklung (im Bild „ambient occlusion“). Das „ambient occlusion“ Bild wird noch einer Filterung unterzogen (Bild „filter“). Schließlich werden alle Bilder mit der in der Figur gezeigten Formel (Formel a. von oben) zusammengesetzt. In 4 sind vier Bilder gezeigt. Oben links das mit lokalen Beleuchtungseffekten aufgenommene VRT Bild. Unten links ist das erfindungsgemäß berechnete Schattenbild gezeigt. Das zusammengesetzte Bild von den beiden linken (VRT mit AO) ist rechts oben gezeigt. Darunter rechts unten das Bild, welches nun erhalten würde, wenn man das brute force Verfahren komplett zur Schattenberechnung durchführen würde. Man sieht hier eine geringe Abweichung durch die gemachte Näherung für den untersuchten Gegenstand (Vergleich der Bilder rechts oben und rechts unten). Dies wird auch noch anhand von den folgenden Bildern verdeutlicht.
  • In 5 ist links ein Bild gezeigt, welches mit lokaler Beleuchtung ermittelt wurde (VRT Bild). Ganz rechts ist das Bild der Umgebungsverdunkelung (AO Bild) und in der Mitte das zusammengesetzte Bild (VRT mit AO).
  • In 6 ist links wiederum das Bild mit dem lokalen Beleuchtungseffekt gezeigt (VRT Bild). In der Mitte ist das Bild dargestellt, welches man mit Schatten und Umgebungsverdunkelung erfindungsgemäß erhalten würde (VRT mit SH und AO) und ganz rechts das Bild, in dem die „brüte force“-Methode ohne Näherung durchgeführt wird. Man sieht aus den geringen Unterschieden zwischen den Bildern rechts und in der Mitte die vergleichsweise gute Qualität dieser Näherung.
  • Es versteht sich, dass die vorliegende Erfindung in verschiedenen Formen von Hardware, Software, Firmware, Spezialzweckprozessoren oder einer Kombination daraus implementiert werden kann. Bevorzugt ist eine Implementierung auf einer GPU (graphics processing unit) mit OpenGL (open graphics language) und der OpenGL Shading Language.
  • In einer Ausführungsform kann die vorliegende Erfindung in Software als ein Anwendungsprogramm implementiert werden. Das Anwendungsprogramm kann auf einer Maschine hochgeladen und auf ihr ausgeführt werden, die eine beliebige geeignete Architektur aufweist.
  • Unter Bezugnahme auf 7 kann gemäß einer Ausführungsform der vorliegenden Erfindung ein Computersystem 401 für GPU basiertes Raycasting unter anderem eine zentrale Verarbeitungseinheit (central processing unit; CPU) 402, einen Speicher 403, und eine Eingabe-/Ausgabe (E-/A-)Schnittstelle 404 aufweisen. Das Computersystem 401 ist im Allgemeinen über die E-/A-Schnittstelle 404 mit einer Anzeigevorrichtung 405 und diversen Eingabevorrichtungen 106 wie z.B. eine Maus oder eine Tastatur gekoppelt. Die Zusatzschaltkreise können Schaltkreise wie z.B. Cache, Stromversorgung, Taktschaltungen und eine Kommunikationssammelleitungen umfassen. Der Speicher 403 kann ein Schreib-Lese-Speicher (random acces memory, RAM), ein Lese-Speicher (read only memory, ROM), ein Diskettenlaufwerk, ein Bandlaufwerk, usw. oder eine Kombination davon umfassen. Die vorliegende Erfindung kann als ein Programmroutine 407, die im Speicher 403 gespeichert ist und von der CPU 402 ausgeführt wird, implementiert werden, um das Signal von der Signalquelle 408 zu verarbeiten. Das Computersystem 401 umfasst des Weiteren eine grafische Verarbeitungseinheit (graphic processing unit; GPU) 409, zur Verarbeitung von Graphikanweisungen, z.B. zur Verarbeitung der Signalquelle 408, die Bilddaten aufweist. Als solches ist das Computersystem 401 ein allgemeines Mehrzweck-Computersystem, das zu einem Spezialzweck-Computersystem wird, wenn es das Programm 407 der vorliegenden Erfindung ausführt.
  • Die Computerplattform 401 enthält auch ein Betriebssystem und einen Mikrobefehlscode. Die verschiedenen, hierin beschriebenen Verfahren und Funktionen können entweder Teil des Mikrobefehlscodes oder Teil des Anwendungsprogramms (oder einer Kombination davon) sein, das von dem Betriebssystem ausgeführt wird. Darüber hinaus können verschiedene andere Peripheriegeräte wie z.B. eine zusätzliche Datenspeichereinrichtung und eine Druckeinrichtungen an die Computerplattform angeschlossen werden.
  • Es versteht sich des Weiteren, dass, da einige der einzelnen Systemkomponenten und Verfahrensschritte, die in den beigefügten Figuren dargestellt sind, in Software implementiert werden können, die tatsächlichen Verbindungen zwischen den Systemkomponenten (oder zwischen den Prozessschritten) abweichen können, in Abhängigkeit der Art und Weise, in der die vorliegende Erfindung programmiert ist. Mit der angegebenen Lehre der vorliegenden Erfindung, die hierin vorgelegt wird, wird der einschlägige Fachmann imstande sein, diese und ähnliche Ausführungen oder Konfigurationen der vorliegenden Erfindung zu berücksichtigen.
  • Die Erfindung ist nicht auf die im Ausführungsbeispiel dargestellten Anwendungen beschränkt. Insbesondere ist vorstellbar, dass bei virtuellen Darstellungen in ganz anderen Bereichen als der Medizintechnik dieses Verfahren zum Einsatz kommt. Beispiele sind die Visualisierung von Produkten im Rahmen von Wirtschaft und Handel und Computerspiele.
    • 1) Joe Kniss, Simon Premoze, Charles Hansen, and David Ebert. „Interactive Translucent volume rendering and procedural modelling". In VIS '02: Proceedings of the conference on Visualization '02, pages 109-116, IEEE Computer Society, 2002.
    • 2) Markus Hadwiger, Andrea Kratz, Christian Sigg, and Katja Bühler. „Gpu accelerated deep shadow maps for direct volume rendering"... In GH '06: Proceedings of the 21st ACM SIGGRAPH/Europraphics symposium on Graphics hardware, pages 49-52, New York, NY, USA, 2006. ACM Press.
    • 3) Timo Ropinski, Jens Kasten, Klaus Hinrichs, „Efficient Shadows for GPU-based Volume Raycasting“, International Conferences in Central Europe on Computer Graphics, Visualization and Computer Vision 2008
    • 4) ZHUKOV, S., IONES, A., AND KRONIN, G. 1998. An ambient light illumination model. In Rendering Techniques '98 (Proceedings of the Eurographics Workshop in Rendering), 45-55.
    • 5) Philippe Desgranges, Princeton, New Jersey (U.S.), Klaus Engel, Princeton, New Jersey (U.S.), FAST AMBIENT OCCLUSION FOR DIRECT VOLUME RENDERING, U.S. Provisional application No. 60/698.830 , filed July 13, 2005
    • 6) ROPINSKI T., MEYER-SPRADOW J., DIEPENBROCK S., MENSMANN J., HINRICHS K. H.: Interactive volume rendering with dynamic ambient occlusion and color bleeding. Computer Graphics Forum (Eurographics 2008) 27, 2 (2008), 567-576.
    • 7) STEWART A.J.: Vicinity shading for enhanced perception of volumetric data. In VIS '03: Proceedings of the 14th IEEE Visualization 2003 (VIS'03) (2003), IEEE Computer Society, pp. 355-362.

Claims (10)

  1. Verfahren zur zweidimensionalen Darstellung eines Objekts mittels Volume Rendering, umfassend - Erzeugung einer Darstellung des Objekts mit Hilfe eines Meßsystems, wobei bei der Darstellung an Raumpunkten des Objekts Werte einer die Dichte des Objekt charakterisierenden Größe gegeben sind, - Ermitteln eines gemischten Farbwerts für die Darstellung als Pixel auf einem Bildschirm mittels eines Volume Rendering Verfahrens unter Verwendung eines Ray-Casting Strahls, welches kein oder ein lokales Beleuchtungsmodell verwendet, - Simulieren wenigstens eines von einer Oberfläche des Objekts ausgehenden Strahls zur Ermittlung des Einflusses von Schattenbildung oder des Einflusses von Umgebungsverdeckung, wobei die Startposition auf der Oberfläche für den wenigstens einen Strahl durch ein erstes Auftreffen des Ray-Casting Strahls auf dem Objekt definiert ist, - Ermittlung eines Wertes für den Einfluss von Schattenbildung oder eines Wertes für den Einfluss von Umgebungsverdeckung mittels des wenigstens einen Strahls, und - Kombinieren des gemischten Farbwertes mit dem ermittelten Wert, um einen gemischten Farbwert zu erhalten, bei dem der Einfluss von Schattenbildung oder Umgebungsverdeckung berücksichtigt ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass - sowohl ein Wert für den Einfluss von Schattenbildung als auch ein Wert für den Einfluss von Umgebungsverdeckung ermittelt wird, und - beide Werte mit dem gemischten Farbwert kombiniert werden, um einen gemischten Farbwert zu erhalten, bei dem der Einfluss von Schattenbildung und Umgebungsverdeckung berücksichtigt ist.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es sich bei der Oberfläche des Objekts um eine äußere Oberfläche handelt.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - ein Wert für den Einfluss von Schattenbildung ermittelt wird, und - der gemischte Farbwert mit dem Wert multipliziert wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass - ein weiterer Wert für den Einfluss von Umgebungsverdeckung ermittelt wird, und - der weitere Wert mit dem Produkt aus gemischten Farbwert und dem Wert für den Einfluss von Schattenbildung multipliziert wird, oder - der weitere Wert mit einem Faktor multipliziert wird, der ein Maß für in der Umgebung vorhandenes Licht darstellt, und - zu dem Produkt aus gemischtem Farbwert und dem Wert für den Einfluss von Schattenbildung addiert wird, oder - das Produkt aus weiterem Wert und Faktor mit dem gemischten Farbwert multipliziert und zu dem Produkt aus gemischtem Farbwert und dem Wert für den Einfluss von Schattenbildung addiert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - ein Wert für den Einfluss von Schattenbildung oder Umgebungsverdeckung ermittelt wird, und - der ermittelte Wert vor dem Schritt des Kombinierens mit dem gemischten Farbwert gefiltert wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Länge des wenigstens einen Strahls beschränkt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - der gemischte Farbwert für eine Vielzahl von Pixel ermittelt wird, - der Wert für Schattenbildung bzw. Umgebungsverdeckung für eine Untermenge der Vielzahl von Pixel jeweils mittels wenigstens einen Strahl ermittelt wird, und - der skalare Wert für die nicht zur Untermenge gehörigen Pixel der Vielzahl von Pixel durch Interpolation ermittelt wird.
  9. Vorrichtung, die zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 8 ausgestaltet ist.
  10. Computerprogrammprodukt mit einem Computerprogramm, welches ein Verfahren nach einem der Ansprüche 1 bis 8 ausführt.
DE102009042328.1A 2009-09-21 2009-09-21 Effiziente Bestimmung von Lichteffekten beim Volume Rendering Active DE102009042328B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102009042328.1A DE102009042328B4 (de) 2009-09-21 2009-09-21 Effiziente Bestimmung von Lichteffekten beim Volume Rendering
US12/881,777 US9001124B2 (en) 2009-09-21 2010-09-14 Efficient determination of lighting effects in volume rendering
CN201010290366.9A CN102024269B (zh) 2009-09-21 2010-09-20 在体绘制中有效确定灯光效果

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009042328.1A DE102009042328B4 (de) 2009-09-21 2009-09-21 Effiziente Bestimmung von Lichteffekten beim Volume Rendering

Publications (2)

Publication Number Publication Date
DE102009042328A1 DE102009042328A1 (de) 2011-04-07
DE102009042328B4 true DE102009042328B4 (de) 2024-02-15

Family

ID=43705387

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009042328.1A Active DE102009042328B4 (de) 2009-09-21 2009-09-21 Effiziente Bestimmung von Lichteffekten beim Volume Rendering

Country Status (3)

Country Link
US (1) US9001124B2 (de)
CN (1) CN102024269B (de)
DE (1) DE102009042328B4 (de)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639975B1 (en) * 2010-10-21 2017-05-02 Pixar System and method for generating shadows
US9070208B2 (en) 2011-05-27 2015-06-30 Lucasfilm Entertainment Company Ltd. Accelerated subsurface scattering determination for rendering 3D objects
US9280848B1 (en) * 2011-10-24 2016-03-08 Disney Enterprises Inc. Rendering images with volumetric shadows using rectified height maps for independence in processing camera rays
CN102592305A (zh) * 2011-09-06 2012-07-18 浙江大学 自适应的屏幕空间环境光遮蔽方法
KR101208826B1 (ko) 2012-07-09 2012-12-06 인하대학교 산학협력단 깊이 텍스처의 등고선을 기반으로 한 실시간 다각형 앰비언트 오클루전 방법
WO2014076744A1 (ja) * 2012-11-19 2014-05-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
KR102054680B1 (ko) 2013-01-23 2020-01-22 삼성전자주식회사 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법
US10140751B2 (en) * 2013-08-08 2018-11-27 Imagination Technologies Limited Normal offset smoothing
US10229526B2 (en) * 2014-03-13 2019-03-12 Imagination Technologies Limited Rendering of soft shadows
US10354438B2 (en) * 2015-09-02 2019-07-16 Siemens Healthcare Gmbh Illumination in rendering of anatomy with functional information
US9911225B2 (en) 2015-09-29 2018-03-06 Siemens Healthcare Gmbh Live capturing of light map image sequences for image-based lighting of medical data
EP3188131B1 (de) * 2015-12-29 2018-04-18 Siemens Healthcare GmbH Verfahren und visualisierungsvorrichtung zur volumetrischen visualisierung eines dreidimensionalen objekts
JP6793074B2 (ja) * 2017-03-22 2020-12-02 株式会社日立製作所 超音波画像処理装置
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
EP3462418B1 (de) * 2017-09-28 2024-06-19 Siemens Healthineers AG Verfahren und vorrichtung zur darstellung von materialeigenschaften
EP3667624A1 (de) * 2018-12-14 2020-06-17 Siemens Healthcare GmbH Verfahren zur bestimmung der beleuchtungsauswirkung eines volumetrischen datensatzes
US11276227B2 (en) * 2019-12-24 2022-03-15 Tencent Technology (Shenzhen) Company Limited Object rendering method and apparatus, storage medium, and electronic device using a simulated pre-integration map
CN112116693B (zh) * 2020-08-20 2023-09-15 中山大学 一种基于cpu的生物分子可视化光线追踪渲染方法
CN112967366B (zh) * 2021-03-12 2023-07-28 北京壳木软件有限责任公司 一种体积光渲染方法、装置、电子设备及存储介质
US11804011B2 (en) * 2021-09-15 2023-10-31 LlamaZOO Interactive Inc. Method and apparatus for interactive volumetric visualization

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5442733A (en) 1992-03-20 1995-08-15 The Research Foundation Of State University Of New York Method and apparatus for generating realistic images using a discrete representation
US20020018063A1 (en) 2000-05-31 2002-02-14 Donovan Walter E. System, method and article of manufacture for shadow mapping
US20090153557A1 (en) 2007-12-14 2009-06-18 Rouslan Dimitrov Horizon split ambient occlusion

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184119B2 (en) 2005-07-13 2012-05-22 Siemens Medical Solutions Usa, Inc. Fast ambient occlusion for direct volume rendering
CN101248459A (zh) 2005-08-26 2008-08-20 皇家飞利浦电子股份有限公司 一种生成3d对象的2d图像的方法
US20090102843A1 (en) 2007-10-17 2009-04-23 Microsoft Corporation Image-based proxy accumulation for realtime soft global illumination
US20090309877A1 (en) * 2008-06-16 2009-12-17 Microsoft Corporation Soft shadow rendering
US9483864B2 (en) * 2008-12-05 2016-11-01 International Business Machines Corporation System and method for photorealistic imaging using ambient occlusion

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5442733A (en) 1992-03-20 1995-08-15 The Research Foundation Of State University Of New York Method and apparatus for generating realistic images using a discrete representation
US20020018063A1 (en) 2000-05-31 2002-02-14 Donovan Walter E. System, method and article of manufacture for shadow mapping
US20090153557A1 (en) 2007-12-14 2009-06-18 Rouslan Dimitrov Horizon split ambient occlusion

Non-Patent Citations (17)

* Cited by examiner, † Cited by third party
Title
Computergrafik: "4.7 Globale Beleuchtungsmodelle", Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, SS 2004, 20 Sheets, http://www.dfki.uni-kl.de/~dannen/HTW_Vorlesung/Kapitel04_4.pdf
Dachsbacher, C. [et al.]: Reflective shadow maps. Proceedings of the 2005 Symposium on Interactive 3D Graphics and Ga,es. ACM, New York, 2005, S. 203-208
DACHSBACHER, C., et al.: Reflective shadow maps, in Proceedings of the 2005 Symposium on Interactive 3D Graphics and Games, ACM, New York, 2005, S. 203-208
Joe Kniss, Simon Premoze, Charles Hansen, and David Ebert. „Interactive Translucent volume rendering and procedural modelling". In VIS '02: Proceedings of the conference on Visualization '02, pages 109-116
KONTKANEN, Janne; LAINE, Samuli. Ambient occlusion fields. In: Proceedings of the 2005 symposium on Interactive 3D graphics and games. 2005. S. 41-48.
KONTKANEN, Janne; LAINE, Samuli: Ambient occlusion fields, in: Proceedings of the 2005 symposium on lnteractive 30 graphics and games, 2005, S. 41-48
M. Levoy: "Display of Surfaces from Volume Data", IEEE Comp. Graphics & Application, May 1988, S. 29-37
Markus Hadwiger, Andrea Kratz, Christian Sigg, and Katja Bühler. „Gpu accelerated deep shadow maps for direct volume rendering"... In GH '06: Proceedings of the 21st ACM SIGGRAPH/Europraphics symposium on Graphics hardware, pages 49-52, New York, NY, USA, 2006
ROPINSKI T., MEYER-SPRADOW J., DIEPENBROCK S., MENSMANN J., HINRICHS K. H.: Interactive volume rendering with dynamic ambient occlusion and color bleeding. Computer Graphics Forum (Eurographics 2008) 27, 2 (2008), 567-576
SHANMUGAM, Perumaal; ARIKAN, Okan. Hardware accelerated ambient occlusion techniques on GPUs. In: Proceedings of the 2007 symposium on Interactive 3D graphics and games. 2007. S. 73-80.
SHANMUGAM, Perumaal; ARIKAN, Okan: Hardware accelerated ambient occlusion techniques on GPUs, in: Proceedings ofthe 2007 symposium on Interactive 30 graphics and games, 2007, S. 73-80
STEWART A.J.: Vicinity shading for enhanced perception of volumetric data. In VIS '03: Proceedings of the 14th IEEE Visualization 2003 (VIS'03) (2003), IEEE Computer Society, pp. 355-362
U. Tiede: "Realistische 3D-Visualisierung multiattributierter und multiparametrischer Volumendaten", Dissertation, Univ. Hamburg, 1999, Titel, S. i-iv, 1-118
Yagel, R. [et al.]: Discrete Ray Tracing. IEEE Computer Graphics and Applications, Vol. 12, 1992, S. 19-28
YAGEL, Roni; KAUFMAN, Arie; ZHANG, Qiang. Realistic volume imaging. In: Proceedings of the 2nd conference on Visualization'91. 1991. S. 226-231.
YAGEL, Roni; KAUFMAN, Arie; ZHANG, Qiang: Realistic volume imaging, in: Proceedings of the 2nd conference on Visualization'91, 1991, S. 226-231, sowie YAGEL, R. et al.: Discrete Ray Tracing, IEEE Computer Graphics and Applications, Vol. 12, 1992, S. 19-28
ZHUKOV, S., IONES, A., AND KRONIN, G. 1998. An ambient light illumination model. In Rendering Techniques '98 (Proceedings of the Eurographics Workshop in Rendering), 45-55

Also Published As

Publication number Publication date
US20110069069A1 (en) 2011-03-24
US9001124B2 (en) 2015-04-07
CN102024269A (zh) 2011-04-20
CN102024269B (zh) 2015-11-25
DE102009042328A1 (de) 2011-04-07

Similar Documents

Publication Publication Date Title
DE102009042328B4 (de) Effiziente Bestimmung von Lichteffekten beim Volume Rendering
EP3193309B1 (de) Perspektivisches darstellen der scanbereichsgrenze einer medizinischen bildgebungsvorrichtung
DE69233207T2 (de) Verfahren und gerät zur bildverarbeitung.
DE102007033999B4 (de) Systeme und Verfahren zum Bestimmen von Abtastraten für ein Volumenwiedergeben
DE102005035012B4 (de) Hochleistungsschattierung von großen volumetrischen Daten unter Verwendung von partiellen Schirmraumableitungen
DE102007008767B3 (de) Verfahren und Vorrichtung zur Darstellung von 3D Bilddatensätzen auf 2D Bildern
DE102009042327A1 (de) Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering
DE102004043676B4 (de) Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen
DE102007008224A1 (de) System und Verfahren für eine Inkontext-Volumenvisualisierung unter Verwendung eines virtuellen Schnitts
DE102011075904A1 (de) Verfahren zum Bereitstellen eines Bilddatensatzes mit unterdrückten Messfeldüberschreitungsartefakten und Röntgenbildaufnahmevorrichtung
DE102005008609A1 (de) Flexible Erzeugung von digital rekonstruierten Röntgenaufnahmen
DE102014105146B4 (de) System, Verfahren und Computerprogrammprodukt zum Durchführen einer Pfad-Raum-Filterung
DE102006021118B4 (de) Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE102009042326A1 (de) Interaktive Veränderung der Darstellung eines mittels Volume Rendering dargestellten Objekts
DE102011076878A1 (de) Verfahren und Vorrichtung zur effizienten Editierung eines dreidimensionalen Volumens mittels Ray Casting
DE102008050049A1 (de) Verfahren zur Bestimmung einer die Objektgrenze eines Objekts in einem digitalen 3D-Datensatz annähernden 3D-Oberfläche
DE102020210030A1 (de) Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten
EP3188131B1 (de) Verfahren und visualisierungsvorrichtung zur volumetrischen visualisierung eines dreidimensionalen objekts
DE102020213305A1 (de) Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten
DE102009007680A1 (de) Verfahren und Vorrichtung zur interaktiven CT-Rekonstruktion
DE102012217089A1 (de) Schichtdarstellung von Volumendaten
DE102012214604A1 (de) Schichtdarstellung von Volumendaten
DE102011085860B4 (de) Verfahren zur medizinischen Bildgebung eines Körperteils, insbesondere der Hand
DE102010034918A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Güteeinformation für eine Röntgenbildgebung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE