DE102005003428A1 - Verfahren und Vorrichtung zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands - Google Patents

Verfahren und Vorrichtung zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands Download PDF

Info

Publication number
DE102005003428A1
DE102005003428A1 DE200510003428 DE102005003428A DE102005003428A1 DE 102005003428 A1 DE102005003428 A1 DE 102005003428A1 DE 200510003428 DE200510003428 DE 200510003428 DE 102005003428 A DE102005003428 A DE 102005003428A DE 102005003428 A1 DE102005003428 A1 DE 102005003428A1
Authority
DE
Germany
Prior art keywords
pixel
light intensity
illumination
calculated
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE200510003428
Other languages
English (en)
Inventor
Jörg Dr.rer.nat. Hahn
Konrad Dr. Polthier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE200510003428 priority Critical patent/DE102005003428A1/de
Priority to PCT/EP2005/006320 priority patent/WO2005124695A2/de
Priority to US11/153,116 priority patent/US20070008310A1/en
Publication of DE102005003428A1 publication Critical patent/DE102005003428A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren, eine Datenverarbeitungsanlage und ein Computerprogramm-Produkt zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands auf einem Bildschirmgerät einer Datenverarbeitungsanlage. Bildpunkte eines vorgegebenen Konstruktionsmodells (8) des Gegenstands werden ausgewählt. Für jeden ausgewählten Bildpunkt (BP) werden eine erste Lichtintensität (LI_BP_1) des Bildpunkts (BP), die aus einer ersten Beleuchtung des Gegenstands resultiert, und eine zweite Lichtintensität (LI_BP_2), die aus einer zweiten Beleuchtung des Gegenstands resultiert, berechnet. Die beiden Lichtintensitäten (LI_BP_1, LI_BP_2) werden zu einer Gesamt-Lichtintensität (LI_BP_ges) aggregiert. Diese wird in ein vom Bildschirmgerät verarbeitbares Eingangssignal (ES_BP) für den Bildpunkt (BP) transformiert. Unter Verwendung der Bildpunkte und ihrer Eingangssignale wird die Darstellung (9) des Gegenstands erzeugt, an das Bildschirmgerät übermittelt und auf diesem angezeigt.

Description

  • Die Erfindung betrifft ein Verfahren, eine Datenverarbeitungsanlage und ein Computerprogramm-Produkt zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands auf einem Bildschirmgerät einer Datenverarbeitungsanlage.
  • Insbesondere beim Konstruieren eines physikalischen Gegenstandes, z. B. eines Kraftfahrzeugs, wird eine von einer Datenverarbeitungseinrichtung automatisch erzeugte rechnerverfügbare dreidimensionale Darstellung des Gegenstandes benötigt. Diese auf einem Ausgabegerät zu zeigende Darstellung soll möglichst realitätsnah sein.
  • Die zu erzeugende Darstellung soll möglichst früh im Produktentstehungsprozeß zur Verfügung stehen. Daher soll ihre Erzeugung es nicht erfordern, dass bereits ein physikalisches Exemplar oder ein physikalisches Modell des Gegenstandes hergestellt worden ist. Daher scheidet eine Photographie o. ä. als Darstellung aus. Die Darstellung wird vielmehr mit Hilfe eines rechnerverfügbaren Konstruktionsmodells erzeugt, das mindestens die Oberfläche des Gegenstandes repräsentiert. Dieses Konstruktionsmodell wird z. B. aus einem rechnerverfügbaren CAD-Modell erzeugt.
  • Gewünscht wird eine realitätsnahe dreidimensionale Darstellung des beleuchteten Gegenstandes, also eine Darstellung, die zeigt, wie der Gegenstand bei einer vorgegebenen Beleuchtung aussieht. Diese Darstellung wird mit Hilfe des vorgegebenen Konstruktionsmodells erzeugt und umfaßt Bildpunkte.
  • In US 6,175,367 B1 wird der Helligkeitswert eines Bildpunkts so berechnet, dass der Wert von der Richtung eines Normalenvektors auf das Oberflächenmodell im Bildpunkt, der Blickrichtung auf das Oberflächenmodell, der Einfallsrichtung und der Beleuchtungsintensität einer Lichtquelle sowie Reflexionseigenschaften der Oberfläche des Gegenstandes abhängt.
  • Auch in US 6,078,332 wird die Beleuchtung eines Gegenstandes durch mehrere Lichtquellen simuliert. Für jeden Bildpunkt des Oberflächenmodells wird ermittelt, welche der Lichtquellen den Bildpunkt beleuchten und welche nicht. Für jede Lichtquelle wird je ein Dämpfungsfaktor bezogen auf den Bildpunkt berechnet. Abhängig von der Beleuchtungsintensität der jeweiligen Lichtquelle und vom Dämpfungsfaktor wird ein Helligkeitswert des Bildpunktes berechnet.
  • In EP 1202222 A2 werden die Einfalls- und Ausfallsrichtung des Lichts ermittelt. Eine „bidirektionale Reflexions-Verteilungs-Funktion" wird vorgegeben und angewendet. Sie beschreibt, wie ein auftreffender Lichtstrahl in verschiedene Richtungen mit unterschiedlicher Intensität verteilt wird.
  • In US 6,441,820 B2 wird die Beleuchtung eines Gegenstandes durch mehrere Lichtquellen mit jeweils begrenzter Ausdehnung simuliert, beispielsweise durch mehrere künstliche Lichtquellen. Die mehreren Lichtquellen werden näherungsweise durch eine einzige punktförmige Lichtquelle ersetzt. Hierbei wird die Position und Richtung einer einzigen Lichtquelle in einer Simulation probeweise so lange variiert, bis ein maximaler Grad der Übereinstimmung zwischen der Beleuchtung durch mehrere Lichtquellen und der einen Lichtquelle gefunden ist. Die Lichtquelle mit dieser Position und Richtung wird als Ersatz-Lichtquelle verwendet.
  • Aus DE 19958329 A1 ist ein Verfahren bekannt, um eine Darstellung eines beleuchteten Gegenstandes auf einem Bildschirm einer Datenverarbeitungsanlage zu erzeugen. Der Gegenstand wird in Darstellungselemente („Basiskonstrukte") zerlegt. Berechnet wird, ob ein Basiskonstrukt in der Darstellung beleuchtet oder beschattet erscheint.
  • Aus DE 10 2004 028880 A1 ist ein Verfahren bekannt, das eine realitätsnahe Darstellung des vom Tageslicht beleuchteten Gegenstandes erzeugt. Diese Darstellung zeigt, wie der Gegenstand bei Beleuchtung durch das natürliche Tageslicht aussieht.
  • In US 5,467,438 wird ein Verfahren beschrieben, um eine farbige Darstellung eines Gegenstandes zu erzeugen. Der Farbton und die Lichtintensität eines Flächenelements („patch") der Darstellung wird abhängig von den Reflexionseigenschaften der Oberfläche des Gegenstandes, einer maximal möglichen Reflexion und der Lichtintensität eines Standard-Weiß bestimmt. Berücksichtigt wird der Winkel zwischen einer Normalen auf dem Flächenelement und der Lichteinfallsrichtung.
  • Auch in US 5,742,292 und US 6,504,538 B1 werden Verfahren und Vorrichtungen offenbart, durch die eine farbige Darstellung eines beleuchteten Gegenstandes erzeugt werden. Hierbei wird die Reflexion der Oberfläche berücksichtigt. In US 6,504,538 B1 werden zusätzlich eine Lichteinfalls- und eine Betrachtungsrichtung berücksichtigt.
  • Ein beleuchteter physikalischer Gegenstand zeigt Glanzlichter („highlights") auf seiner Oberfläche, auch wenn die Oberfläche relativ matt ist und wenn der Gegenstand nur diffus beleuchtet ist. Ein solches Glanzlicht scheint bei Veränderung der Betrachtungsrichtung über die Oberfläche des Gegenstandes zu laufen.
  • In US 6,175,367 B1 werden ein verallgemeinertes Phong-Modell sowie ein Verfahren der Computer-Graphik vorgestellt. Vorgegeben sind ein rechnerverfügbares Oberflächenmodell eines Ge genstandes, ein Normalenvektor in einem Bildpunkt des Oberflächenmodells, eine Betrachtungsrichtung, die Richtung, aus der eine punktförmige Lichtquelle den Gegenstand beleuchtet, und die Beleuchtungsintensität. In Abhängigkeit von diesen Richtungen, der Beleuchtungsintensität und von Reflexionseigenschaften der Oberfläche des Gegenstandes werden ein Helligkeitswert sowie eine Farbcodierung für den Bildpunkt näherungsweise berechnet.
  • In US 6,552,726 B1 wird ein Verfahren offenbart, um eine Darstellung zu erzeugen, die einen Gegenstand aus einer vorgegebenen Betrachtungsrichtung zeigt. Farbwerte von Bildpunkten werden vorab berechnet und zwischengespeichert. Abhängig von der Betrachtungsrichtung werden die Farbwerte von darzustellenden Bildpunkten umgerechnet und wiederverwendet. Erwähnt werden Darstellungen mit Glanzlichtern, die gemäß einem Verfahren von Phong generiert werden.
  • In US 6,433,782 B1 ist ein rechnerverfügbares Konstruktionsmodell des Gegenstandes vorgegeben. Dessen Oberfläche wird in Flächenelementen zerlegt. Mit Hilfe je eines Normalenvektors auf den Flächenelementen und eines Vektors in Richtung der stärksten Beleuchtung wird ein Helligkeitswert berechnet, vgl. z. B. 20. Die Lichtquelle sendet in einer Ausführungsform diffuses Licht aus. Vorzugsweise werden Polarkoordinaten verwendet, und ein Winkel zwischen zwei Vektoren wird mit Hilfe des Skalarprodukts berechnet.
  • In US 6,545,677 B2 wird modelliert, wie eine Oberfläche eine Beleuchtung durch eine punktförmige Lichtquelle reflektiert. Ein Glanzlicht-Winkel („highlight angle") wird berechnet, z. B. als Winkel zwischen Betrachtungsrichtung und reflektiertem Lichteinfall oder näherungsweise als Winkel zwischen Normalenvektor und einem „halfway vector", der den Winkel zwischen Normalenvektor und Betrachtungsrichtung halbiert. Die Ober fläche wird in Flächenelemente zerlegt, und ein vom Glanzlicht-Winkel abhängiger Wert wird berechnet.
  • Verfahren zur Darstellung eines Gegenstandes auf einem Bildschirmgerät werden auch in US 2003/0234786 A1 und US 2004/0109000 A1 beschrieben.
  • Ein Bildschirmgerät einer Datenverarbeitungsanlage stellt einen physikalischen Gegenstand dadurch dar, dass es eine Darstellung anzeigt, die aus Bildpunkten mit unterschiedlichen Lichtintensitäten besteht. Die Lichtintensität, mit der das Bildschirmgerät einen Bildpunkt anzeigt, hängt von einem Eingangssignal für diesen Bildpunkt ab.
  • Das Bildschirmgerät vermag ein Eingangssignal nur dann zu verarbeiten und in eine Lichtintensität umzusetzen, wenn das Eingangssignal in einer vorgegebenen Menge verarbeitbarer Eingangssignale liegt. Beispielsweise ist das Eingangssignal ein RGB-Vektor (RGB = red – green – blue). Der Rotwert, der Grünwert und der Blauwert ist jeweils eine ganze Zahl zwischen 0 und 255, also ein 8-Bit-Wert
    Figure 00050001
    mit ai = 0 oder ai = 1.
  • In EP 1004094 B1 werden ein Verfahren und eine Vorrichtung offenbart, um eine texturierte Darstellung eines Gegenstandes auf einem Bildschirmgerät darzustellen. Berücksichtigt wird eine Beleuchtungsrichtung einer Lichtquelle in einem dreidimensionalen Koordinatensystem. Die berechnete Lichtintensität eines Bildpunktes der Darstellung wird mit 8-Bit-Werten codiert.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung bereitzustellen, durch die ein durch eine Lichtquelle beleuchteter Gegenstand so auf einem Bildschirmgerät einer Datenverarbeitungsanlage dargestellt wird, dass die zu erzeugende Darstellung die Beleuchtung des Gegenstandes durch eine Superposition zweier Lichtquellen physikalisch korrekt zeigt.
  • Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1, eine Datenverarbeitungsanlage mit den Merkmalen des Anspruchs 21 und ein Computerprogramm-Produkt mit den Merkmalen des Anspruchs 22 gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
  • Das erfindungsgemäße Verfahren und die erfindungsgemäßen Vorrichtungen stellen einen beleuchteten physikalischen Gegenstand auf einem Bildschirmgerät einer Datenverarbeitungsanlage dar. Das Bildschirmgerät vermag Bildpunkte mit Lichtintensitäten, die von Eingangssignalen für die Bildpunkte abhängen, zu verarbeiten und darzustellen, wenn die Eingangssignale zu einer vorgegebenen Menge verarbeitbarer Eingangssignale gehören.
  • Vorgegeben sind eine erste und eine zweite Beleuchtungsrichtung einer ersten und einer zweiten Beleuchtung des Gegenstandes. Die erste Beleuchtungsrichtung ist eine Richtung, aus der die erste Beleuchtung auf den Gegenstand einwirkt. Die zweite Beleuchtungsrichtung ist eine Richtung, aus der die zweite Beleuchtung auf den Gegenstand einwirkt.
  • Außerdem wird ein rechnerverfügbares Konstruktionsmodell des Gegenstandes vorgegeben.
  • Das Verfahren umfaßt folgende Verfahrensschritte:
    • – Punkte des vorgegebenen Konstruktionsmodells werden ausgewählt und als Bildpunkte der zu erzeugenden Darstellung verwendet.
    • – Für jeden der ausgewählten Bildpunkte wird abhängig von der ersten Beleuchtungsrichtung eine aus der ersten Beleuchtung des Gegenstandes resultierende erste Lichtintensität des Bildpunkts berechnet.
    • – Für jeden der ausgewählten Bildpunkte wird in Abhängigkeit von der zweiten Beleuchtungsrichtung eine aus der zweiten Beleuchtung des Gegenstandes resultierende zweite Lichtintensität des Bildpunkts berechnet.
    • – Für jeden der ausgewählten Bildpunkte wird eine Gesamt-Lichtintensität des Bildpunkts in Abhängigkeit von der ersten und der zweiten Lichtintensität des Bildpunkts berechnet.
    • – Die Gesamt-Lichtintensität jedes ausgewählten Bildpunkts wird in ein vom Bildschirmgerät verarbeitbares elektrisches Eingangssignal des Bildpunkts transformiert.
    • – Eine rechnerverfügbare Darstellung des physikalischen Gegenstandes wird erzeugt. Hierfür werden die ausgewählten Bildpunkte und die berechneten Eingangssignale der Bildpunkte verwendet. Diese Darstellung umfaßt die ausgewählten Bildpunkte an ihren durch das Konstruktionsmodell vorgegebenen Positionen.
    • – Diese Darstellung mit den ausgewählten Bildpunkten und den berechneten Eingangssignalen der ausgewählten Bildpunkte wird an das Bildschirmgerät übermittelt.
    • – Das Bildschirmgerät zeigt die Darstellung, wobei es jeden Bildpunkt mit einer vom Eingangssignal abhängenden Anzeige-Lichtintensität darstellt.
  • Die Erfindung unterscheidet eine physikalische Ebene und eine Codierungsebene, was im Folgenden beschrieben wird.
  • In der physikalischen Ebene werden die Lichtintensitäten der Bildpunkte berechnet. Die Berechnungen der physikalischen Ebene bilden die physikalische Realität bei der Beleuchtung des Gegenstandes nach. Die Verfahrensschritte in der physikalischen Ebene hängen nicht vom jeweiligen Bildschirmgerät und nicht von der Menge der jeweils von diesem Bildschirmgerät verarbeitbaren Eingangssignale ab. In der physikalischen Realität ist die Gesamt-Lichtintensität von zwei sich überlagernden Lichtintensitäten gleich der Summe dieser beiden Lichtintensitäten. Dies besagt das Superpositionsprinzip von Graßmann. Die Berechnungen in der physikalischen Ebene lassen sich mit der jeweils erforderlichen Genauigkeit, z. B. 4-Bit-, 8-Bit- oder 32-Bit-Fließkommadarstellung, durchführen.
  • Vom jeweiligen Bildschirmgerät hängen hingegen die Verfahrensschritte ab, die in der Codierungsebene stattfinden, nämlich die Transformation und die Darstellung auf dem Bildschirmgerät. In dieser Codierungsebene gilt nur noch näherungsweise, dass die codierte Gesamt-Lichtintensität von zwei sich überlagernden Lichtintensitäten gleich der Summe der Codierungen dieser beiden Lichtintensitäten ist. Denn in der Codierungsebene werden die Verfahrensschritte in der Menge der verarbeitbaren Eingangssignale durchgeführt. Diese Eingangssignal-Menge ist im allgemeinen diskret, besteht also aus endlich vielen verschiedenen verarbeitbaren Eingangssignalen. Der Zusammenhang zwischen dem Eingangssignal und der Lichtintensität, mit der ein Bildschirmgerät einen Bildpunkt aufgrund dieses Eingangssignals anzeigt, ist im allgemeinen nichtlinear. Die physikalische Realität würde nicht korrekt wiedergegeben, wenn zunächst die erste Lichtintensität jedes Bildpunktes in ein erstes Eingangssignal und die zweite Lichtintensität in ein zweites Eingangssignal transformiert werden würde und anschließend ein Gesamt-Eingangssignal als Summe des ersten und des zweiten Eingangssignals berechnet werden würde.
  • Das Verfahren läßt sich z. B. zum Entwerfen von Kraftfahrzeugen, in einem graphischen dreidimensionalen Navigationssystem in einem Kraftfahrzeug, zum Erzeugen von technischen Illustrationen, für Werbe- und Verkaufspräsentationen, in Computerspielen mit dreidimensionalen Darstellungen oder in einem Fahrsimulator zur Ausbildung von Kraftfahrzeug-Führern, Lokführern, Schiffsführern oder Piloten anwenden. In allen diesen Anwendungen ist es wichtig, dass eine realitätsnahe Darstellung erzeugt wird.
  • Vorzugsweise wird eine Betrachtungsrichtung vorgegeben, Die zu erzeugende Darstellung soll den Gegenstand aus dieser Betrachtungsrichtung zeigen. In einer Fortbildung werden aus schließlich Punkte von sichtbaren Bereichen des Konstruktionsmodells ausgewählt und für die Erzeugung der Darstellung verwendet. Diese Ausgestaltung spart unnötige Berechnungen ein – nämlich Berechnungen für Bildpunkte, die in der Darstellung nicht sichtbar sind.
  • In einer Ausgestaltung wird die erste Beleuchtungsrichtung so vorgegeben, dass sie vom Gegenstand in Richtung der stärksten Lichtintensität der ersten Beleuchtung zeigt. In einer Ausgestaltung ist die Lichtintensität der ersten Beleuchtung rotationssymmetrisch, und die erste Beleuchtungsrichtung liegt auf der Symmetrieachse. Das entsprechend gilt für die zweite Beleuchtungsrichtung.
  • In einer Fortbildung werden nacheinander mehrere Darstellungen erzeugt. Jede Darstellung zeigt den Gegenstand aus einer Betrachtungsrichtung. Die Betrachtungsrichtung verändert sich von Darstellung zu Darstellung. Auf diese Weise läßt sich ein rechnerverfügbarer Film erzeugen, der die Darstellungen nacheinander anzeigt und dadurch den Gegenstand z. B. bei einer Rotation um 360 Grad zeigt. Oder eine der Beleuchtungsrichtungen wird variiert. Der Film zeigt den Gegenstand unter dem Einfluß einer wandernden Beleuchtung.
  • Vorzugsweise wird das Gamma-Verhalten des Bildschirmgeräts berücksichtigt. Unter dem Gamma-Verhalten eines Bildschirmgeräts wird der Zusammenhang zwischen dem Eingangssignal ES für die Soll-Lichtintensität, und der tatsächlichen Anzeige-Lichtintensität L, mit der das Bildschirmgerät den Bildpunkt darstellt, bezeichnet. Dieser Zusammenhang ist in der Regel kein proportionaler. Er wird durch eine sogenannte Gamma-Transfer-Funktion Γ beschrieben, beispielsweise durch die Funktion Γ : ES → L = ES ^ γ = Vγ. Vorzugsweise wird für jeden Bildpunkt das Eingangssignal dieses Bildpunkts dergestalt berechnet, dass das an das Bildschirmgerät übermittelte Eingangssignal das Gamma-Verhalten des Bildschirmgeräts kompensiert.
  • In einer ersten Fortbildung dieser Ausgestaltung wird zunächst die Gesamt-Lichtintensität jedes Bildpunkts in ein Signal, das in der Eingangsignal-Menge liegt, transformiert. Anschließend wird das kompensierende Eingangssignal in Abhängigkeit von diesem durch Transformation erzeugten Signal und vom Gamma-Verhalten des Bildschirmgeräts berechnet. Die Kompensation wird also im Codierungsraum durchgeführt. Zuerst wird also die Codierung durchgeführt, anschließend die Kompensation.
  • In einer zweiten – bevorzugten – Fortbildung dieser Ausgestaltung wird zunächst für jeden Bildpunkt in Abhängigkeit von der Gesamt-Lichtintensität des Bildpunkts und vom Gamma-Verhalten des Bildschirmgeräts eine kompensierende Gesamt-Lichtintensität des Bildpunkts berechnet. Anschließend wird die kompensierende Gesamt-Lichtintensität in das verarbeitbare Eingangsignal transformiert. Die Kompensation wird bevorzugt mittels Fließkommarechnung ausgeführt und läßt sich mit der jeweils gewünschten Genauigkeit durchführen. Sie hängt nicht von der Menge der verarbeitbaren Eingangssignale ab, die das Bildschirmgerät zu verarbeiten mag. Zuerst wird also die Kompensation durchgeführt, anschließend die Codierung.
  • In einer Fortbildung werden die kompensierenden Lichtintensitäten zunächst einzeln berechnet. Beispielsweise wird zunächst eine erste Darstellung berechnet, die den Gegenstand bei Beleuchtung durch nur die erste Lichtquelle zeigt, und hierfür wird die erste kompensierende Lichtintensität jedes Bildpunkts berechnet. Anschließend wird die Darstellung, die den Gegenstand bei Beleuchtung durch beide Lichtquellen zeigt, berechnet. Die bereits berechneten ersten kompensierenden Lichtintensitäten jedes Bildpunkts werden wiederverwendet.
  • Das Gamma-Verhalten des Bildschirmgeräts wird durch die Gamma-Transfer-Funktion Γ beschrieben. Seien LI_BP_1_komp und LI_BP_2_komp die einzeln berechneten kompensierenden Lichtintensitäten eines Bildpunkts. Diese werden gemäß der Rechen vorschrift LI_BP_1_komp = Γ–1(LI_BP_1) und LI_BP_2_komp = Γ–1(LI_BP_2) berechnet. Die kompensierende Gesamt-Lichtintensität LI_BP_ges_komp wird anschließend gemäß der Rechenvorschrift LI_BP_ges_komp = Γ–1[Γ(LI_BP_1_komp) + Γ(LI_BP_2_komp)] berechnet. Hierbei bezeichnet Γ–1 die inverse Funktion (Umkehrfunktion) der Gamma-Transfer-Funktion Γ.
  • Sei LI_BP_ges_displ die Gesamt-Lichtintensität, mit der das Bildschirmgerät diesen Bildpunkt darstellt. Dann gilt: LI_BP_ges_displ = Γ(LI_BP_ges_komp) = LI_BP_ges = Γ(LI_BP_1_komp) + Γ(LI_BP_2_komp) = LI_BP_1 + LI_BP_2.
  • Vorzugsweise wird die Kompensation des Gamma-Verhaltens mit Hilfe der Funktion x |→ x ^ γ_komp = Xγ_komp durchgeführt. Im Falle der ersten Fortbildung ist x ein Signal in der Eingangsignal-Menge. Falls Xγ_komp nicht in der Eingangsignal-Menge liegt, wird als Eingangsignal das nächstgelegene Signal aus der Eingangsignal-Menge verwendet, z. B. die nächste ganze Zahl zwischen 0 und 255. Im Falle der zweiten Fortbildung ist x eine Lichtintensität, die z. B. in Candela pro m2 angegeben wird.
  • Im Folgenden wird ein Ausführungsbeispiel der Erfindung anhand der beiliegenden Figuren näher beschrieben. Dabei zeigen:
  • 1. eine beispielhafte Architektur einer Datenverarbeitungsanlage zur Durchführung des Verfahrens;
  • 2. einige Beispiele für Helligkeitsfunktionen;
  • 3. einige Beispiele für Helligkeitsfunktionen, die affine Linearkombinationen von Helligkeitsfunktionen aus
  • 2 sind;
  • 4. die Berechnung des Winkels zwischen dem gespiegelten Betrachtungsrichtungs-Vektor und dem Richtungsvektor;
  • 5. ein Flußdiagramm für das Verfahren, das die Erzeugung der Darstellung veranschaulicht;
  • 6. eine Detaillierung des Flußdiagramms aus 5: Berechnung der ersten Farbton-Lichtintensität;
  • 7. die Fortsetzung des Flußdiagramms von 6;
  • 8. die Überlagerung zweier Beleuchtungen am Beispiel einer Kugel;
  • 9. die resultierenden Darstellungen.
  • Das Ausführungsbeispiel bezieht sich auf eine beispielhafte Anwendung des Verfahrens zum Konstruieren von Kraftfahrzeugen. Der Gegenstand ist in diesem Ausführungsbeispiel ein Kraftfahrzeug oder ein Kraftfahrzeug-Bestandteil. Durch das Verfahren wird eine Darstellung erzeugt, die zeigt, wie das Kraftfahrzeug bei Beleuchtung durch zwei Lichtquellen aussieht.
  • 1 zeigt eine beispielhafte Architektur einer Datenverarbeitungsanlage zur Durchführung des Verfahrens. Diese Datenverarbeitungsanlage umfaßt in diesem Beispiel folgende Bestandteile:
    • – eine Recheneinheit 1 zur Durchführung von Berechnungen,
    • – ein als Kathodenstrahl-Bildschirm ausgestaltetes Bildschirmgerät 2,
    • – einen Datenspeicher 3, auf den die Recheneinheit 1 über eine Informationsweiterleitungsschnittstelle Lesezugriff hat,
    • – ein erstes Eingabegerät in Form einer DV-Maus 4, die drei Tasten aufweist,
    • – ein zweites Eingabegerät in Form einer Tastatur 5 mit Tasten und
    • – eine Graphikkarte 6, die die Eingangssignale für das Bildschirmgerät 2 erzeugt.
  • Im Datenspeicher 3 sind ein rechnerverfügbares Konstruktionsmodell 8 des Gegenstandes, also des Kraftfahrzeugs oder des Bestandteils, sowie eine rechnerverfügbare Beschreibung der Beleuchtung dieses Gegenstandes abgespeichert.
  • Dieses Konstruktionsmodell 8 beschreibt wenigstens näherungsweise die Oberfläche des Gegenstandes. Im Falle eines Kraftfahrzeugs als dem Gegenstand beschreibt das Konstruktionsmodell 8 vorzugsweise alle von außen sichtbaren Ausprägungen des Kraftfahrzeugs, aber nicht sein Innenleben.
  • Die Pfeile in 1 bezeichnen Datenflüsse. Die Darstellung 9 wird erzeugt.
  • Das Konstruktionsmodell 8 wird beispielsweise mit einem Software-Werkzeug zum rechnerunterstützten Konstruieren (CAD-Werkzeug) erzeugt. Oder es wird durch Vereinfachung eines solchen CAD-Modells erzeugt. Das mindestens die Oberfläche beschreibende Konstruktionsmodell 8 läßt sich statt dessen auch durch Abtasten eines physikalischen Exemplars oder physikalischen Modells generieren, falls ein solches bereits verfügbar ist.
  • Vorzugsweise umfaßt das Konstruktionsmodell 8 eine große Menge von Flächenelementen. Vorzugsweise haben die Flächenele mente die Form von Dreiecken, aber auch Vierecke oder andere Flächen sind möglich. Beispielsweise wird die Oberfläche des Konstruktionsmodells 8 vernetzt, so dass Finite Elemente in Form von Flächenelementen entstehen. Die Methode der Finiten Elemente ist z. B. aus „Dubbel – Taschenbuch für den Maschinenbau", 20. Auflage, Springer-Verlag, 2001, C 48 bis C 50, bekannt. Im Konstruktionsmodell 8 wird eine bestimmte Menge von Punkten festgelegt, die Knotenpunkte heißen. Als Finite Elemente werden diejenigen Flächenelemente bezeichnet, deren Geometrien durch diese Knotenpunkte definiert werden.
  • Für jedes dieser Flächenelemente wird als Normale mindestens ein Normalenvektor n → berechnet. Dieser Normalenvektor n → steht senkrecht auf dem Flächenelement und zeigt vom Konstruktionsmodell 8 nach außen. Jeder Normalenvektor n → wird normiert, so dass ||n →|| = 1 gilt.
  • Eine erste Ausführungsform der Zerlegung sieht vor, dass das Konstruktionsmodell 8 die Oberfläche des darzustellenden Gegenstandes mit Hilfe von Spline-Flächen beschreibt. Die Flächenelemente werden z. B. durch Tesselierung dieser Spline-Flächen erzeugt. In der Regel haben diese Flächenelemente die Form von Dreiecken. Die Normalenvektoren der Flächenelemente werden als Kreuzprodukt (Vektorprodukt) der partiellen Ableitungen berechnet.
  • Eine zweite Ausführungsform setzt nicht voraus, dass die Oberfläche des Gegenstandes mittels Spline-Flächen beschrieben ist. Diese zweite Ausführungsform läßt sich auch dann anwenden, wenn das Konstruktionsmodell 8 empirisch, z. B. durch Abtasten eines physikalischen Modells, gewonnen wurde. Vorzugsweise sind die Flächenelemente Dreiecke. Jeder Normalenvektor n → eines dreieckigen Flächenelements wird aus den Dreiecken dergestalt berechnet, dass er senkrecht auf der durch das Dreieck beschriebenen Ebene steht. Oder ein Normalenvektor für einen gemeinsamen Eckpunkt mehrerer Dreiecke wird als Mittelwert der Normalenvektoren der am Eckpunkt zusammentreffenden Dreiecke berechnet. Verfahren zum Bestimmen der Normalenvektoren von Dreiecks-Netzen und zur Aufbereitung für die graphische Darstellung sind beschrieben in T. Akenine-Möller & E. Haines: „Real-Time Rendering", A. K. Peters, 2nd Edition, 2002, S. 447 ff.
  • Die Normalenvektoren zeigen vorzugsweise vom Konstruktionsmodell 8 nach außen. Diese Orientierung läßt sich bei einer orientierbaren Fläche oder bei einem Konstruktionsmodell 8 eines festen Körpers immer erreichen. Falls erforderlich, wird an einem Punkt eine Richtung der Normalenvektoren festgelegt, und dann werden sukzessive die Normalenvektoren benachbarter Punkte umgedreht.
  • Die Berechnung der Normalenvektoren wird einmal durchgeführt. Sie liefert einen Normalenvektor für jedes Flächenelement, z. B. für jeden Eckpunkt der Zerlegung. Solange weder das Konstruktionsmodell 8 noch die Zerlegung in Flächenelemente verändert wird, braucht die Berechnung nicht erneut durchgeführt zu werden. Insbesondere ist keine Neuberechnung der Normalenvektoren erforderlich, wenn eine der beiden Beleuchtungsrichtungen oder die weiter unten beschriebene Betrachtungsrichtung geändert wurde, eine Darstellung bei veränderter Beleuchtung berechnet werden soll oder eine Beleuchtungsintensität oder ein Farbton der Beleuchtung oder des Gegenstandes verändert wurde.
  • In diesem Ausführungsbeispiel wird die erste Beleuchtungsrichtung r1 → durch einen Vektor vorgegeben, der vom Konstruktionsmodell 8 weg in Richtung der ersten Lichtquelle zeigt. Die erste Lichtquelle ist beispielsweise eine diffuse Lichtquelle, z. B. das Tageslicht bei wenigstens teilweise bedecktem Himmel. Vorzugsweise wird die Lichtintensität der Beleuchtung als rotationssymmetrisch angenommen. Der Richtungsvektor r1 → liegt in dieser Ausgestaltung auf der Rotationsachse der rotationssymmetrischen Beleuchtung. Beispielsweise zeigt der Richtungsvektor r1 → in Richtung des Zenits, also von der Erdoberfläche senkrecht nach oben.
  • Derartige punktförmige oder gerichtete Lichtquellen werden z. B. in Akenine-Möller/Haines, a.a.O., S. 67 ff. beschrieben. Ein zweiter Richtungsvektor r2 → für diese zweite Lichtquelle wird ebenfalls vorgegeben. Dieser zweite Richtungsvektor r2 → zeigt in Richtung der stärksten Beleuchtungsintensität der zweiten Lichtquelle. Falls die zweite Lichtquelle die Sonne ist, zeigt der zweite Richtungsvektor r2 → in Richtung der als unendlich weit entfernt angenommenen Sonne. Beide Richtungsvektoren sind normiert, d. h. es gilt ||r1 →|| = 1 und ||r2 →|| = 2 Bildpunkte der Flächenelemente werden ausgewählt. Die zu erzeugende Darstellung 9 umfaßt diese Bildpunkte und zeigt diese mit jeweils einem berechneten Farbton und einer berechneten Lichtintensität an.
  • Für jeden ausgewählten Bildpunkt wird ein Normalenvektor n → berechnet. Falls der Bildpunkt im Inneren des Flächenelements liegt, wird beispielsweise der Normalenvektor des Flächenelements als der Normalenvektor n → des Bildpunkts verwendet. Falls der ausgewählte Bildpunkt ein Eckpunkt mehrerer Flächenelemente ist, wird vorzugsweise aus den Normalenvektoren der angrenzenden Flächenelemente ein gemittelter Normalenvektor berechnet und als der Normalenvektor n → des Bildpunkts. Hierfür wird die Summe aller Normalenvektoren der angrenzenden Flächenelemente berechnet, und die Summe wird vorzugsweise auf die Länge 1 normiert.
  • Für jeden ausgewählten Bildpunkt wird der cosinus cos(θ1) des Winkels θ1 zwischen dem Normalenvektor n → des Bildpunkts und dem vorgegebenen ersten Richtungsvektor r1 → zur diffusen Lichtquelle mittels des Skalarprodukts berechnet, und zwar gemäß der Rechenvorschrift
    Figure 00160001
  • Vorzugsweise werden sowohl der Normalenvektor n → als auch der erste Beleuchtungsrichtungs-Vektor r1 → auf die Länge 1 normiert, so dass gilt: cos(θ1) = <n →, r1 →>.
  • In analoger Weise wird der cosinus cos(θ2) des Winkels θ2 zwischen dem Normalenvektor n → auf dem Flächenelement und dem vorgegebenen zweiten Richtungsvektor r2 → zur punktförmigen oder gerichteten Lichtquelle berechnet, also gemäß der Rechenvorschrift
    Figure 00170001
  • Vorgegeben ist in dieser Ausführungsform weiterhin ein Differenzwinkel η, der zwischen 0 Grad und 90 Grad liegt. Durch die Verwendung des Differenzwinkels η erzeugt das Verfahren eine realitätsnahe Darstellung 9 des Kraftfahrzeugs für den Fall, dass das Kraftfahrzeug nur teilweise beleuchtet wird, z. B. weil es sich in einer Schlucht befindet und der Himmel nur bis zum Winkel η über dem Horizont herabreicht. Dies führt in der Realität dazu, dass einzelne Bereiche der Oberfläche dunkel bleiben. Durch Variation des Differenzwinkels η läßt sich die Darstellung 9 an unterschiedliche Tiefen der Schlucht bzw. Höhe des Himmels über der Horizontalen anpassen.
  • Weiterhin ist mindestens eine Helligkeitsfunktion HF vorgegeben. Der Begriff der Funktion ist in „Dubbel – Taschenbuch für den Maschinenbau", 17. Aufl., Springer-Verlag 1990, A 4 beschrieben. Eine Funktion ordnet jedem Argument aus einer vorgegebenen Argumentmenge jeweils genau einen Funktionswert zu. Die Helligkeitsfunktion besitzt als Argumentmenge die Winkel von 0 Grad bis 180 Grad einschließlich.
  • Die mindestens eine vorgegebene Helligkeitsfunktion HF besitzt als Argumentmenge die Winkel von 0 Grad bis 180 Grad (einschließlich). Sie ordnet dem Argument 180 Grad den Funktionswert 0 und jedem Argument kleiner als 180 Grad je genau einen Funktionswert größer oder gleich 0 zu. Die Bildmenge, d. h. die Menge der Funktionswerte, ist also die Menge der reellen Zahlen größer oder gleich 0. Die mindestens eine Helligkeitsfunktion beschreibt die Auswirkung einer Beleuchtung auf einen beleuchteten Gegenstand.
  • Möglich ist, dass eine einzige Helligkeitsfunktion vorgegeben wird, die sowohl die Auswirkung der ersten Beleuchtung als auch die der zweiten Beleuchtung auf die Lichtintensität eines Punkts der Oberfläche des Gegenstandes beschreibt. In diesem Ausführungsbeispiel werden hingegen zwei verschiedene Helligkeitsfunktionen HF1 und HF2 vorgegeben. Die erste Helligkeitsfunktion HF1 beschreibt die Auswirkung der Beleuchtung des Gegenstandes durch die diffuse erste Lichtquelle, die zweite Helligkeitsfunktion HF2 die durch die punktförmige oder gerichtete zweite Lichtquelle.
  • 2 zeigt beispielhaft mehrere solche Helligkeitsfunktionen. Die gestrichelte Linie 11 zeigt den Graphen einer Helligkeitsfunktion HF2 für die punktförmige oder gerichtete Lichtquelle. Diese Helligkeitsfunktion HF2 weist die Form HF2(θ) = max [cos(θ), 0]auf. Hierbei bezeichnet θ den Winkel zwischen dem Normalenvektor n → und dem zweiten Beleuchtungsrichtung r2 →. Aus der Rechenvorschrift sowie dem Kurvenverlauf in 2 wird deutlich, dass für Winkel θ, die größer als 90 Grad sind, der Helligkeitswert HF2(θ) gleich 0 ist: Außerdem weist die Helligkeitsfunktion HF2 bei θ = 90 Grad einen Knick auf.
  • Mit durchgezogenen Linien 12 und 13 sind in 2 zwei Helligkeitsfunktionen HF1 eingezeichnet, die beide folgende Eigenschaften haben:
    • – Jedem Winkel zwischen 0 Grad und 180 Grad ordnen sie eine Zahl zwischen 0 und 1 zu,
    • – Dem Winkel 0 Grad ordnen sie den Wert 1 und dem Winkel 180 Grad den Wert 0 zu.
    • – Sie sind monoton fallend.
    • – Sie sind glatt, d. h. ohne Knicke. Diese Ausgestaltung bewirkt, dass die Helligkeit auf der Oberfläche des Konstruktionsmodells 8 und damit über der zu erzeugenden Darstellung 9 besonders weich variiert, und verhindert, dass eine harte und unrealistische Lichtkante wahrgenommen wird. Eine Lichtkante wird nur bei einem Knick oder einer Kante der Oberfläche des Konstruktionsmodells 8 erzeugt, und dort ist sie realistisch und daher nicht störend.
  • Die Kurve 12 beschreibt die Helligkeitsfunktion des isotropen Himmels, der im Typ 5 („sky of uniform luminance") des Standards „CIE Draft Standard 011.2/E" definiert ist. Dieser Standard von 2002 ist verfügbar unter http://www.cieusnc.org/images/CIE-DSO11_2.pdf, abgefragt am 13. 4. 2004, und definiert verschiedene Typen von Himmelsbeleuchtung, darunter die rotationssymmetrischen Typen CIE 1, 3 und 5, sowie den als Typ 16 geführten „traditionellen bedeckten Himmel". Die Kurve 12 zeigt den Graphen der Helligkeitsfunktion HF1_iso mit HF1_iso(θ) = [cos(θ) + 1]/2
  • Die Kurve 12 in 2 hängt nur vom cosinus des Winkels ab, aber nicht vom Winkel θ zwischen der Normalen n → und der jeweiligen Beleuchtungsrichtung r1 → bzw. r2 → selber. In diesem Falle braucht nicht der Winkel θ berechnet zu werden, sondern nur der Cosinus cos(θ) des Winkels θ. Der Cosinus des Winkels α zwischen zwei Vektoren a → und b → wird vorzugsweise mit Hilfe des Skalarprodukts <a →, b →> gemäß der Formel
    Figure 00190001
    berechnet. Der Winkel α selber braucht nicht berechnet zu werden. Dies vereinfacht und beschleunigt die Berechnung des Funktionswerts der Häufigkeitsfunktion.
  • Der Verlauf 13 in 2 zeigt die Helligkeitsfunktion des „traditionellen bedeckten Himmels", also den Graphen der Helligkeitsfunktion HF1_trad mit
    Figure 00200001
  • Eine weitere Ausführungsform für die Helligkeitsfunktion sieht vor, eine affine Linearkombinationen HF1_aff aus zwei der gerade beschriebenen Helligkeitsfunktionen HFa und HFb zu verwenden, also HF1_aff(θ) = c·HFa(θ) + (1 – c)·HFb(θ)
  • Hierbei wird der Koeffizient c so gewählt, dass die neue Helligkeitsfunktion HF1_aff für alle Winkel θ zwischen 0 Grad und 180 Grad größer oder gleich Null ist. Dadurch läßt sich so eine ganze Schar von Helligkeitsfunktionen beschreiben, die zwischen der Helligkeitsfunktion des isotropen Himmels und der Helligkeitsfunktion des „cosinusförmigen Himmels" mittelt.
  • Falls für HFa die Helligkeitsfunktion des isotropen und für HFb die Helligkeitsfunktion des traditionellen bedeckten Himmels verwendet wird, so führt die affine Linearkombination zu der Helligkeitsfunktion
    Figure 00200002
    mit einem Faktor c > 0, was gewährleistet, dass HF1 aff(θ) > 0 ist. Der Winkel θ wird auch in dieser Rechenvorschrift im Gradmaß gemessen. Bei einem Faktor c > 1 kann es vorkommen, dass die Helligkeitsfunktion zunächst monoton steigt und dann wieder fällt. Dies bildet die Realität korrekt ab, denn im Falle von diffusem Tageslicht als Beleuchtung liegt die Richtung zum Zenit zwar auf der Rotationsachse und ist die erste Beleuchtungsrichtung, ist aber nicht in jedem Falle die Richtung der stärksten Lichtintensität. Bei klarem Himmel ist die Lichtintensität in Zenitrichtung i.d.R. kleiner als in einer flacheren Richtung von der Sonne weg.
  • Für c = 3/7 geht diese Ausführungsform über in die Helligkeitsfunktion des „traditionellen bedeckten Himmels", also in
    Figure 00210001
    3 zeigt einige Beispiele für derartige Helligkeitsfunktionen, die affine Linearkombinationen von Helligkeitsfunktionen aus 2 sind. Kurve 26 zeigt die Helligkeitsfunktion für c = 0, Kurve 27 zeigt die für c = 2 und Kurve 28 die für c = 5. Zum Vergleich sind wiederum die Kurve 22 für den „isotropen Himmel" (c = 1) und die Kurve 23 für den "traditionellen bedeckten Himmel" (c = 3/7) aus 2 eingetragen.
  • Die Kurve 28 (c = 5) ist nicht monoton und nimmt Funktionswerte größer als 1 an. Ihr Maximum liegt bei ca. 77 Grad. In Verbindung mit einer konventionellen gerichteten Lichtquelle, z. B. der Sonne, liefert die Helligkeitsfunktion mit der Kurve 28 einen realistischen Eindruck des Gegenstandes z. B. bei einem klaren Sonnentag. Um sie besser mit anderen vergleichen zu können und um die übliche Normierung bei der Berechnung der Helligkeit von Räumen verwenden zu können, gilt auch für die Helligkeitsfunktion HF28 mit der Kurve 28, dass HF28(0) = 1 ist.
  • Eine Fortbildung des Ausführungsbeispiels sieht vor, als erste Helligkeitsfunktion eine variierte Helligkeitsfunktion vHF1 zu verwenden, die mit Hilfe des oben beschriebenen Differenzwinkels η definiert wird. Sei HF1 eine der gerade beschriebenen ersten Helligkeitsfunktionen für die erste Beleuchtung. Gemäß einer Ausgestaltung wird die variierte Helligkeitsfunktion vHF1 unter Verwendung der ersten Helligkeitsfunktion HF1 gemäß der Rechenvorschrift
    Figure 00210002
    definiert, wobei θ wiederum der Winkel zwischen der Normalen n → und der jeweiligen Beleuchtungsrichtung r1 → bzw. r2 → ist.
  • Gemäß einer alternativen Ausgestaltung hat die variierte Helligkeits-Funktion vHF1 die Rechenvorschrift
    Figure 00220001
  • Diese Formel stellt einen kontinuierlichen Übergang zwischen einer vollständigen diffusen Beleuchtung (η=0) und einer gerichteten Lichtquelle im Zenit (η=90) dar.
  • Vorzugsweise wird zusätzlich die Auswirkung des eingangs beschriebenen Glanzlichts („highlight") auf die zu erzeugende Darstellung 9 des Gegenstands berücksichtigt. Diese Auswirkung hängt von der vorgegebenen Betrachtungsrichtung v → auf den Gegenstand ab.
  • Weiterhin wird eine Betrachtungsrichtung v → vorgegeben. Beispielsweise wird diese Betrachtungsrichtung direkt vorgegeben. Oder ein Betrachtungspunkt wird vorgegeben, z. B. der Punkt, an dem sich ein Betrachter oder eine Kamera befindet. Die Betrachtungsrichtung v → wird als Richtung vom Betrachtungspunkt zum Gegenstand berechnet.
  • Die zu erzeugende Darstellung 9 zeigt den Gegenstand aus dieser vorgegebenen Betrachtungsrichtung v →. Im Falle einer perspektivischen Darstellung per Zentralprojektion ist die Betrachtungsrichtung v → die Richtung vom Zentrum der Zentralprojektion auf einen darzustellenden Bereich der Oberfläche des Gegenstandes. Diese Betrachtungsrichtung v → kann vom jeweiligen Punkt auf der Oberfläche des Gegenstandes abhängen und mit diesem variieren. Im Falle einer Zentralprojektion wird daher für jeden ausgewählten Bildpunkt jeweils eine Betrachtungsrichtung v → berechnet.
  • Vorzugsweise wird ermittelt, welche Flächenelemente des Konstruktionsmodells 8 aus dieser Betrachtungsrichtung v → sichtbar sind und daher in der zu erzeugenden Darstellung 9 angezeigt werden. Nur aus solchen Flächenelementen werden Bild punkte ausgewählt. Damit wird vermieden, dass unnütze Berechnungen durchgeführt werden – nämlich Berechnungen für Bildpunkte, die in der Darstellung 9 gar nicht sichtbar sind.
  • Vorzugsweise wird für jedes sichtbare Flächenelement mindestens ein Bildpunkt ausgewählt. Beispielsweise werden die Eckpunkte jedes sichtbaren Flächenelements ausgewählt.
  • Im Folgenden wird die bevorzugte Ausgestaltung beschrieben, bei der die durch die Beleuchtungen hervorgerufenen Glanzlichter berücksichtigt werden. Hierfür wird zusätzlich mindestens eine Glanzlichtfunktion GF vorgegeben. Diese Funktion GF besitzt als Argumentmenge die Winkel von 0 Grad bis 180 Grad. Möglich ist es, eine erste Glanzlichtfunktion GF1 für das Glanzlicht durch die erste Beleuchtung und eine zweite Glanzlichtfunktion GF1 für das Glanzlicht durch die zweite Beleuchtung vorzugeben.
  • Für jeden ausgewählten Bildpunkt BP wird weiterhin die vorgegebene Betrachtungsrichtung v → um die Normale n → des Bildpunkts BP gespiegelt. Die Spiegelung bildet das physikalische Reflexionsgesetz einer ideal spiegelnden Oberfläche nach. Die Normale n →, die Betrachtungsrichtung v → und die gespiegelte Betrachtungsrichtung s → liegen alle in einer Ebene. Durch die Spiegelung wird eine gespiegelte Betrachtungsrichtung s → generiert.
  • 4 veranschaulicht, wie der Betrachtungsrichtungs-Vektor v → gespiegelt wird und wie der Winkel ρ → zwischen einem Vektor in Richtung der gespiegelten Betrachtungsrichtung s → und einem Richtungsvektor r1 → der ersten Beleuchtung berechnet wird. FE ist ein Flächenelement. Der Winkel a → zwischen Normale n → und Betrachtungsrichtung v → ist gleich dem Winkel β zwischen der Normalen n → und der gespiegeltem Betrachtungsrichtung s →.
  • Vorzugsweise wird die gespiegelte Betrachtungsrichtung s → durch die Rechenvorschrift s → = 2·cos(β)·n → – v →berechnet. Hierbei ist cos(β) der Winkel zwischen den beiden Vektoren n → und v →.
  • Vorzugsweise haben sowohl der Normalenvektor n → als auch der Betrachtungsrichtungs-Vektor v → die Länge 1, d. h. es gilt ||n →|| = ||v →|| = ||s →|| = 1. Dann vereinfacht sich die Berechnungsvorschrift zu s → = 2·<n →,
    Figure 00240001
    >·n → – v →. Hierbei ist <n →, v →> das Skalarprodukt dieser beiden Vektoren. Denn es gilt: <n →, v →> = cos(β)·||n →||·||v →||.
  • Berechnet wird der Winkel ρ1 zwischen der gespiegelten Betrachtungsrichtung s → und der ersten Beleuchtungsrichtung r1 →. Ein erster Glanzlichtwert GW1 des Bildpunkts BP wird berechnet, und zwar als Funktionswert GF(ρ1) der vorgegebenen mindestens einen Glanzlichtfunktion GF. Der erste Glanzlichtwert GW1 ist dann am größten, wenn die gespiegelte Betrachtungsrichtung s → parallel zu einer Richtung der stärksten Beleuchtungsintensität der ersten Beleuchtung verläuft. In vielen Fällen ist die Richtung der stärksten Beleuchtungsintensität gleich der vorgegebenen ersten Beleuchtungsrichtung r1 →.
  • In analoger Weise wird der Winkel ρ2 zwischen der gespiegelten Betrachtungsrichtung s → und der zweiten Beleuchtungsrichtung r2 → berechnet. Durch Anwendung der Rechenvorschrift GW2 = GF(ρ2) wird ein zweiter Glanzlichtwert GW2 des Bildpunkts BP berechnet.
  • In einer Ausbildung werden zwei Glanzlichtfunktionen vorgegeben, nämlich eine erste Glanzlichtfunktion GF1 der ersten diffusen Lichtquelle sowie eine zweite Glanzlichtfunktion GF2 der punktförmigen oder gerichteten Lichtquelle. Vorzugsweise ordnet die erste Glanzlichtfunktion GF1 dem Argument 180 Grad den Funktionswert 0 und jedem Argument kleiner als 180 Grad genau einen Funktionswert größer als 0 zu. Alle Winkel, die kleiner als 180 Grad sind, erhalten also einen Funktionswert größer als 0. Die Bildmenge der ersten Glanzlichtfunktion GF1, d. h. die Menge der Funktionswerte, ist also die Menge der reellen Zahlen größer oder gleich 0.
  • In einer Ausführungsform ist die erste Lichtquelle der oben eingeführte „isotrope Himmel", und die erste Helligkeitsfunktion HF1 hat die durch Kurve 12 in 2 dargestellte Form HF1_iso(θ) = [cos(θ) + 1]/2
  • Vorzugsweise wird als erste Glanzlichtfunktion GF1 eine Funktion vorgegeben, die von einem Parameter m abhängt und die folgende Gestalt hat
    Figure 00250001
  • Dieser Parameter m hängt vom Material der Oberfläche des Gegenstandes ab. ICOSN hängt vom Winkel ρ und von der Zahl m ab und wird gemäß der Berechnungsvorschrift
    Figure 00250002
    berechnet.
  • Zwar ist es möglich, dieses Integral exakt mit Hilfe einer analytischen Rechenvorschrift zu berechnen. Bevorzugt wird ICOSN(m,ρ) aber rekursiv mit Hilfe folgender Vorschrift berechnet, die für n=1,2,...,m gilt: ICOSN(0, ρ) = π – ρ, ICOSN(1, ρ) = cos(ρ) + 1,
    Figure 00260001
  • In einer Ausführungsform ist die erste Lichtquelle der oben eingeführte „traditionelle bedeckte Himmel". Dann wird als Glanzlichtfunktion GF1 vorgegeben: GF1(ρ) =
    Figure 00260002
  • Die zweite Lichtquelle ist beispielsweise eine punktförmige oder gerichtete Lichtquelle. Für diese wird die zweite Helligkeitsfunktion HF2 mit HF2(θ) = max [cos(θ), 0] vorgegeben. Als Glanzlichtfunktion GF2 wird beispielsweise die Funktion GF2 mit
    Figure 00260003
    vorgegeben.
  • Für jeden ausgewählten Bildpunkt BP werden ein erster Helligkeitswert HW1_BP und ein zweiter Helligkeitswert HW2_BP berechnet. Der erste Helligkeitswert HW1_BP beschreibt die Auswirkung der ersten Beleuchtung auf den Gegenstand im Bildpunkt BP, der zweite Helligkeitswert HW2_BP die der zweiten Beleuchtung.
  • Wie oben beschrieben, werden Bildpunkte der Flächenelemente ausgewählt. Für jeden dieser Bildpunkte wird ein Basis-Farbton FT_BP vorgegeben. Dieses Basis-Farbton FT_BP beschreibt die Mattheit oder diffuse Reflexion, also ein Farbton, der nicht von der Betrachtungsrichtung abhängt. Beispielsweise wird für jedes Flächenelement der oben beschriebenen Zerlegung ein solcher Basis-Farbton vorgegeben, und jeder Bildpunkt des Flächenelements erhält denselben Basis-Farbton. Möglich ist auch, für jeden Eckpunkt eines Flächen elements einen Basis-Farbton vorzugeben und den Basis-Farbton eines Bildpunkts im Inneren durch Interpolation über die Basis-Farbtöne der Eckpunkte zu berechnen. Die Interpolation hängt von der Position des Bildpunkts im Flächenelement ab.
  • Diese Basis-Farbtöne der Bildpunkte lassen sich unabhängig von der Menge der vom Bildschirmgerät 2 verarbeitbaren Eingangssignale sowie unabhängig von den Beleuchtungen und deren Farbtönen und Lichtintensitäten festlegen und verändern.
  • Vorzugsweise wird der Basis-Farbton jedes Bildpunkts BP ebenfalls in Form eines RGB-Vektors vorgegeben. Jeder Basis-Farbton FT_BP in Form eines RGB-Vektors besteht dann aus drei Werten, nämlich einem Rotwert FT_BP_r, einem Grünwert FT_BP_g und einem Blauwert FT_BP_b. Der Rotwert gibt an, welcher prozentuale Anteil von einfallendem rotem Licht reflektiert wird. Entsprechend geben der Grünwert und der Blauwert an, welcher Anteil von grünem bzw. blauem Licht reflektiert wird. Das Verhältnis der Werte zueinander bestimmt den Basis-Farbton. Der Basis-Farbton gibt an, in welcher Farbe und Helligkeit weißes Licht reflektiert wird.
  • Auch der erste Helligkeitswert HW1_BP des Bildpunkts BP ist bevorzugt ein RGB-Vektor mit dem Rotwert HW1_BP_r, dem Grünwert HW1_BP_g und dem Blauwert HW1_BP_b.
  • In einer ersten Ausführungsform hängt der erste Helligkeitswert HW1_BP nur vom Winkel θ1 zwischen dem Normalenvektor n → im Bildpunkt und der ersten Beleuchtungsrichtung r1 → sowie vom Basis-Farbton FT_BP ab. Er ist gleich einem ersten Beleuchtungswert BL1_BP mit dem Rotwert BL1_BP_r, dem Grünwert BL1_BP_g und dem Blauwert BL1_BP_g. Der erste Beleuchtungswert BL_BP wird in Schritt S21 von 7 gemäß den Rechenvorschriften BL1_BP_r = HF1(θ1)·FT_BP_r BL1_BP_g = HF1(θ1)·FT_BP_g BL1_BP_b = HF1(θ1)·FT_BP_b berechnet. Der Funktionswert HF1(θ1) wird bevorzugt einmal berechnet und zwischengespeichert. Entsprechend wird der zweite Helligkeitswert gemäß den Rechenvorschriften BL2_BP_r = HF2(θ1)·FT_BP_r BL2_BP_g = HF2(θ1)·FT_BP_g BL2_BP_b = HF2(θ1)·FT_BP_bberechnet.
  • In der ersten Ausführungsform ist HW1_BP = BL1_BP und HW2_BP = BL2_BP, es werden also keine Glanzlichter berücksichtigt.
  • In einer zweiten Ausführungsform hängen beide Helligkeitswerte HW1_BP und HW2_BP eines Bildpunkts BP zusätzlich vom jeweiligen Glanzlicht ab. Die beiden Helligkeitswerte HW1_BP und HW2_BP hängen damit zusätzlich auch von der vorgegebenen Betrachtungsrichtung v → ab. Für jeden ausgewählten Bildpunkt BP werden neben dem Basis-Farbton FT-BP auch ein Glanzlicht-Farbton GFT_BP jedes Bildpunkts BP vorgegeben. Vorzugsweise wird auch der Glanzlicht-Farbton GFT_BP in Form eines RGB-Vektors mit dem Rotwert GFT_BP_r, dem Grünwert GFT_BP_g und dem Blauwert GFT_BP_b vorgegeben.
  • Mit Hilfe der ersten Glanzlichtfunktion GF1 wird ein erster Glanzlichtwert GW_1BP berechnet. Dieser ist bevorzugt ein RGB-Vektor mit dem Rotwert GW_1BP_r, dem Grünwert GW1_BP_g und dem Blauwert GW1_BP_b. Der erste Glanzlichtwert GW1_BP wird im Schritt S22 von 7 bevorzugt gemäß den Rechenvorschriften GW1_BP_r = GFT_BP_r·GF1(ρ1) GW1_BP_g = GFT_BP_g·GF1(ρ1) GW1_BP_b = GFT_BP_b·GF1(ρ1)berechnet. Hierbei ist ρ1 der Winkel zwischen der gespiegelten Betrachtungsrichtung s → und der ersten Beleuchtungsrich tung r1 →. Entsprechend wird ein zweiter Glanzlichtwert GW2_BP gemäß den Rechenvorschriften GW2_BP_r = GFT_BP_r·GF2(ρ2) GW2_BP_g = GFT_BP_g·GF2(ρ2) GW2_BP_b = GFT_BP_b·GF2(ρ2)berechnet.
  • Der erste Helligkeitswert HW1_BP des Bildpunkts BP wird in der zweiten Ausführungsform in Schritt S16 vorzugsweise gemäß den Rechenvorschriften HW1_BP_r = BL1_BP_r + GW1_BP_r HW1_BP_g = BL1_BP_g + GW1_BP_g HW1_BP_b = BL1_BP_b + GW1_BP_bberechnet, der zweite Helligkeitswert HW2_BP gemäß den Rechenvorschriften HW2_BP_r = BL2_BP_r + GW2_BP_r HW2_BP_g = BL2_BP_g + GW2_BP_g HW2_BP_b = BL2_BP_b + GW2_BP_b
  • Hierbei sind BL1_BP und BL2_BP der oben beschriebene erste bzw. zweite Beleuchtungswert des Bildpunkts BP.
  • Andere Rechenvorschriften zur Aggregation von erstem Beleuchtungswert BL1_BP und erstem Glanzlichtwert GW1_BP sind möglich, z. B. HW1_BP = BL1_BP·[1 + GW1_BP], Eine andere Rechenvorschrift verwendet einen weiter unten erläuterten kompensierenden Faktor γ_komp. Der erste Helligkeitswert wird gemäß der Rechenvorschrift HW1_BP = [BL1_BP ^ 1/γ_komp + GW1_BP ^ 1/γ_komp] ^ γ_kompberechnet.
  • Auch zur Aggregation von zweitem Beleuchtungswert BL2_BP und zweitem Glanzlichtwert GW2_BP sind andere Rechenvorschriften möglich.
  • Vorgegeben werden eine Lichtintensität der Lichtquelle der ersten Beleuchtung und eine Lichtintensität der Lichtquelle der zweiten Beleuchtung. Diese Lichtintensitäten geben an, wie intensiv die jeweilige Beleuchtung auf der Oberfläche des beleuchteten Gegenstandes ist. Für jeden ausgewählten Bildpunkt jedes Flächenelements werden eine aus der ersten Beleuchtung resultierende erste Lichtintensität des Bildpunkts sowie eine aus der zweiten Beleuchtung resultierende zweite Lichtintensität des Bildpunkts berechnet.
  • In einer Ausgestaltung wird direkt vorgegeben, wie groß die Lichtintensität der ersten und wie groß die der zweiten Beleuchtung auf der Oberfläche des Gegenstandes ist.
  • In einer anderen Ausgestaltung wird hingegen vorgegeben, wie groß die Lichtintensität der ersten und wie groß die der zweiten Beleuchtung in einer vorgegebenen Referenz-Entfernung dist_ref von der jeweiligen Lichtquelle ist, z. B. in einer Mindest-Entfernung. Weiterhin werden der Abstand dist(LQ_1,G) zwischen der ersten Lichtquelle und dem Gegenstand sowie der Abstand dist(LQ_2,G) zwischen der zweiten Lichtquelle und dem Gegenstand vorgegeben. Die vorgegebene Lichtintensität der ersten Lichtquelle wird mit dem Faktor
    Figure 00300001
    multipliziert, die vorgegebene Lichtintensität der zweiten Lichtquelle mit dem Faktor
    Figure 00300002
    Diese Ausgestaltung berücksichtigt die physikalische Tatsache, dass die Lichtintensität einer lokalisierbaren, insbesondere einer punktförmigen, Lichtquelle mit dem Quadrat der Entfernung zum beleuchteten Gegenstand abnimmt.
  • In „Dubbel – Taschenbuch für den Maschinenbau", 20. Aufl., Springer-Verlag, 2001, W18 – W20 sowie Z7, werden die lichttechnischen Kenngrößen Lichtstrom Φ, Lichtstärke I und Beleuchtungsstärke E vorgestellt. Der Lichtstrom Φ wird in Lumen angegeben. Die Lichtstärke I wird in Candela = Lumen pro Steradiant gemessen, die Beleuchtungsstärke in Lux = Lumen pro m2. In Poynton, S. 605, wird die Lichtstärke als „luminous intensity" und die Beleuchtungsstärke als „illuminance" bezeichnet. Zusätzlich wird die Lumineszenz L („luminance") als Lichtstärke I pro m2 eingeführt, sie wird in Candela pro m2 gemessen.
  • Die erste und die zweite Lichtintensität sowie die Gesamt-Lichtintensität eines Bildpunkts lassen sich als lichttechnische Kenngrößen, z. B. in Form der Lichtstärke, der Beleuchtungsstärke oder der Lumineszenz, berechnen.
  • In diesem Ausführungsbeispiel werden die beiden vorgegebenen Lichtintensitäten einschließlich der Farbtöne der beiden Beleuchtungen durch zwei Farbton-Lichtintensitäten LI_LQ_1 und LI_LQ_2 beschrieben. Die beiden resultierenden Lichtintensitäten und Farbtöne jedes Bildpunkts werden in Form von resultierende Farbton-Lichtintensitäten LI_BP_1 und LI_BP_2 berechnet, nämlich ein erster Lichtwert LI_BP_1, der aus der ersten Beleuchtung resultiert, und ein zweiter Lichtwert LI_BP_2, die aus der zweiten Beleuchtung resultiert.
  • Alle vorgegebenen und berechneten Farbton-Lichtintensitäten haben vorzugsweise die Form von RGB-Vektoren mit je einem Rotwert, einem Grünwert und einem Blauwert. Das Verhältnis eines Rotwert, Grünwert und Blauwert bestimmt den Farbton, die absoluten Größen von Rotwert, Grünwert und Blauwert die Lichtintensität der Lichtquelle bzw. des Bildpunkts. Je größer Rotwert, Grünwert und Blauwert ist, desto heller ist die Beleuchtung bzw. erscheint der Bildpunkt. Auch der Basis-Farbton FT_BP jedes Bildpunkts BP wird durch einen RGB-Vektor beschrieben.
  • Die vorgegebenen Farbton-Lichtintensität LI_LQ_1 der ersten Beleuchtung besteht aus dem RGB-Vektor mit dem Rotwert LI_LQ_1_r, dem Grünwert LI_LQ_1_g und dem Blauwert LI_LQ_1_b. Beispielsweise wird die Farbton-Lichtintensität LI_LQ_1_ref der ersten Beleuchtung aus der oben beschriebenen Referenz-Entfernung dist_ref in Form eines RGB-Vektors vorgegeben.
  • Weiterhin wird der Abstand dist(LQ_1, G) zwischen der ersten Lichtquelle und dem darzustellenden Gegenstand vorgegeben. Der RGB-Vektor für LI_LQ_1 beschreibt die Farbton-Lichtintensität der ersten Beleuchtung auf der Oberfläche des darzustellenden Gegenstandes und wird im Schritt S15 gemäß den Rechenvorschriften
    Figure 00320001
    berechnet. Entsprechend wird für die Farbton-Lichtintensität LI_LQ_2 der zweiten Beleuchtung verfahren. Diese Berechnungen brauchen natürlich nur einmal pro Abstand durchgeführt zu werden. Die berechnete erste Farbton-Lichtintensität LI_BP_1 eines ausgewählten Bildpunkts BP besteht aus dem RGB-Vektor mit dem Rotwert LI_BP_1_r, dem Grünwert L2_BP_1_g und dem Blauwert LI_BP_1_b. Der Basis-Farbton FT_BP jedes Bildpunkts BP besteht aus dem RGB-Vektor mit dem Rotwert FT_BP_r, dem Grünwert FT_BP_g und dem Blauwert FT_BP_b. Auch die Farbton-Lichtintensität LI_LQ_2 der zweiten Beleuchtung sowie die berechnete zweite Farbton-Lichtintensität LI_BP_2 bestehen vorzugsweise jeweils aus einem RGB-Vektor mit je einem Rotwert, einem Grünwert und einem Blauwert.
  • In einer Ausgestaltung sind der Rotwert, der Grünwert und der Blauwert jedes RGB-Vektors jeweils eine Zahl zwischen 0 und 1. In einer anderen Ausgestaltung sind der Rotwert, der Grünwert und der Blauwert jeweils eine ganze Zahl zwischen 0 und 255, also eine 8-Bit-Codierung der Form
    Figure 00320002
    mit ai = 0 oder ai = 1 für i=0,1,...,7. In einer weiteren Ausgestaltung sind der Rotwert, der Grünwert und der Blauwert jeweils 16- Bit- oder 32-Bit-Codierungen, haben also die Form
    Figure 00330001
    oder
    Figure 00330002
    mit ai = 0 oder ai = 1. Bei einer 8-Bit-Codierung liegt die Zahl
    Figure 00330003
    zwischen 0 und 28 – 1 = 255 (einschließlich). Der Quotient
    Figure 00330004
    /(28 – 1) ist gleich dem Anteil des reflektierten Lichts.
  • Zunächst werden die beiden resultierenden Farbton-Lichtintensitäten LI_BP_1 und LI_BP_2 eines Bildpunkts BP getrennt voneinander berechnet. Vorzugsweise werden der Rotwert LI_BP_1_r, der Grünwert LI_BP_1_g und der Blauwert LI_BP_1_b der aus der ersten Beleuchtung resultierenden Farbton-Lichtintensitäten LI_BP_1 gemäß folgender Rechenvorschriften berechnet: LI_BP_1_r = HW1_BP_r·LI_LQ_1_r LI_BP_1_g = HW1_BP_g·LI_LQ_1_g LI_BP_1_b = HW1_BP_b·LI_LQ_1_b
  • In der einen oben beschriebenen Ausgestaltung der Aggregation von Beleuchtungs- und Helligkeitswerte führt dies zu der Rechenvorschrift LI_BP_1_r = (BL1_BP_r + GW1_BP_r)·LI_LQ_1_r LI_BP_1_g = (BL1_BP_g + GW1_BP_g)·LI_LQ_1_g LI_BP_1_b = (BL1_BP_b + GW1_BP_b)·LI_LQ_1_b
  • Entsprechend werden der Rotwert LI_BP_2_r, der Grünwert LI_BP_2_g und der Blauwert LI_BP_2_b der aus der zweiten Beleuchtung resultierenden Farbton-Lichtintensitäten LI_BP_2 gemäß folgenden Rechenvorschriften berechnet: LI_BP_2_r = HW2_BP_r·LI_LQ_2_r = (BL2_BP_r + GW2_BP_r)·L2_LQ_1_r LI_BP_2_g = HW2_BP_g·LI_LQ_2_g = (BL2_BP_g + GW2_BP_g)·L2_LQ_1_g LI_BP_2_b = HW2_BP_b·LI_LQ_2_b = (BL2_BP_b + GW2_BP_b)·L2_LQ_1_b
  • HW1_BP und HW2_BP sind die beiden Helligkeitswerte des Bildpunkts, deren Berechnung oben beschrieben wurde. Sie haben vorzugsweise die Gestalt zweier RGB-Vektoren.
  • Anschließend werden die beiden resultierenden Farbton-Lichtintensitäten LI_BP_1 und LI_BP_2 des Bildpunkts zu einer Gesamt-Farbton-Lichtintensität LI_BP_ges aggregiert. Die Gesamt-Farbton-Lichtintensität LI_BP des Bildpunkts besteht aus einem RGB-Vektor mit einem Rotwert BP_r_ges, einem Grünwert BP_g_ges und einem Blauwert BP_b_ges.
  • Vorzugsweise wird die Aggregation durchgeführt, indem die beiden resultierenden Farbton-Lichtintensitäten LI_BP_1 und LI_BP_2 komponentenweise addiert werden. Dann ist LI_BP ges_r = LI_BP_1_r + LI_BP_2_r LI_BP_ges_g = LI_BP_1_g + LI_BP_2_g LI_BP_ges_b = LI_BP_1_b + LI_BP_2_b
  • Diese Gesamt-Farbton-Lichtintensität LI_BP_ges hat eine physikalische Bedeutung. Beispielsweise gibt die berechnete Gesamt-Farbton-Lichtintensität eine Lichtstärke, eine Beleuchtungsstärke oder eine Lumineszenz der vom beleuchteten Gegenstand im Bildpunkt reflektieren Lichtintensität an. Außerdem gibt sie den Farbton dieser Lichtstärke, Beleuchtungsstärke oder Lumineszenz an.
  • Eine rechnerverfügbare Darstellung 9 des beleuchteten Gegenstandes wird erzeugt. Diese Darstellung 9 wird in dem Ausführungsbeispiel mit Hilfe des Konstruktionsmodells 8 generiert. Sie umfaßt die ausgewählten Bildpunkte und deren Positionen und berechneten Gesamt-Farbton-Lichtintensitäten.
  • Jede Gesamt-Farbton-Lichtintensität LI_BP_ges eines Bildpunkts BP wird in ein vom Bildschirmgerät 2 verarbeitbares Eingangssignal für den Bildpunkt transformiert. Viele Bildschirmgeräte vermögen ausschließlich RGB-Vektoren zu verarbeiten, die aus drei 8-Bit-Werten bestehen. Diese drei Werte sind die drei Codierungen für den Rotwert, den Grünwert und den Blauwert. In diesem Falle ist also jedes Eingangssignal ein RGB-Vektor und besteht aus drei ganzen Zahlen, die jeweils zwischen 0 und 255 liegen. Das Verfahren läßt sich aber auch für jede andere Form von verarbeitbaren Eingangsignalen anwenden.
  • Vorzugsweise wird die Transformation wie folgt durchgeführt: Seien LI_BP_ges_r, LI_BP_ges_g und LI_BP_ges_b der Rotwert, Grünwert und Blauwert der Gesamt-Farbton-Lichtintensität LI_BP_ges eines ausgewählten Bildpunkts BP. Vorgegeben werden ein RGB-Vektor mit dem Rotwert LI_BG_max_r, dem Grünwert LI_BG_max_g und dem Blauwert LI_BG_max_b eines reinen Weiß mit der maximal vom Bildschirmgerät 2 darstellbaren Lichtintensität. Beispielsweise gilt LI_BG_max_r = LI_BG_max_g = LI_BG_max_r = 255. Das verarbeitbare Eingangssignal ES_BP für jeden Bildpunkt umfaßt einen RGB-Vektor mit dem Rotwert ES_BP_r, dem Grünwert ES_BP_g und dem Blauwert ES_BP_b. Die Transformation wird in dieser Ausgestaltung gemäß den Rechenvorschriften
    Figure 00350001
    berechnet. Hierbei bezeichnet floor(x) die größte ganze Zahl, die kleiner oder gleich x ist.
  • Aus Ch. Poynton: „Digital Video and HDTV", Morgan Kaufmann, San Francisco, 2003, S. 271 ff., ist das Gamma-Verhalten eines Kathodenstrahl-Bildschirms (CRT) bekannt. Die Lichtinten sität L, mit der das Bildschirmgerät 2 einen Bildpunkt BP darstellt, ist nicht proportional zum analogen Wert des Eingangssignals ES_BP, das an das Bildschirmgerät 2 gesandt wird und die codierte Soll-Lichtintensität festlegt. Das Gamma-Verhalten, also der Zusammenhang zwischen dem Eingangssignal ES für die Soll-Lichtintensität, und der tatsächlichen Anzeige-Lichtintensität L, mit der das Bildschirmgerät 2 den Bildpunkt darstellt, wird durch eine Gamma-Transfer-Funktion Γ beschrieben. In Ch. Poynton, a.a.O., p.272, wird als Gamma-Transfer-Funktion Γ für das Gamma-Verhalten eines Bildschirmgeräts die Funktion L = ES ^ γ = ESγ beschrieben. Der Faktor γ des Bildschirmgeräts 2 wird als „Gamma-Faktor" bezeichnet. Der Gamma-Faktor γ hängt vom Bildschirmgerät 2 ab und liegt in der Regel zwischen 2,2 und 2,9. Andere Beschreibungen des Gamma-Verhaltens sind ebenfalls in Ch. Poynton, a.a.O., dargelegt.
  • Für die Kompensation wird vorausgesetzt, dass das Gamma-Verhalten des Bildschirmgeräts 2 durch den Zusammenhang LI_BP_BG = Γ(ES_BP) beschrieben wird, z. B. durch ES_BP ^ γ_BG. Hierbei bezeichnet LI_BP_BG die Anzeige-Lichtintensität, mit der das Bildschirmgerät 2 einen Bildpunkt BP anzeigt, für den das Eingangssignal ES_BP an das Bildschirmgerät 2 übermittelt wird. Das Gamma-Verhalten wird berücksichtigt, indem die Gamma-Transfer-Funktion Γ invertiert wird, was eine kompensierende Funktion Γ–1 liefert. Die kompensierende Gesamt-Farbton-Lichtintensität LI_BP_ges_komp des Bildpunkts BP wird gemäß der Rechenvorschrift LI_BP_ges_komp = Γ–1 (LI_BP_ges) durch einen Kompensationsfaktor γ_komp berücksichtigt. In einer Ausgestaltung ist γ_komp = 1/γ_BG, und es ist LI_BP_ges_komp = LI_BP_ges ^ γ_komp = LI_BP_ges ^ (1/γ_BG)
  • Vorzugsweise wird zusätzlich die Umgebungsbeleuchtung berücksichtigt, und zwar durch einen Betrachtungs-Gamma-Faktor („viewing gamma") γ_view. Der Betrachtungs-Gamma-Faktor γ_view hängt von der Umgebungsbeleuchtung ab, in der sich das Bildschirmgerät 2 befindet. Er liegt üblicherweise zwischen 1 und 1,5. Für eine dunkle Umgebung, z. B. Kino, wird bevorzugt γ_view = 1,5 gewählt, für helle Umgebungen γ_view = 1 und für einen PC in einer Büroumgebung γ_view = 1,125. Um die Umgebungsbeleuchtung zu berücksichtigen, wird der Kompensationsfaktor γ_komp gemäß der Rechenvorschrift γ_komp = γ_view/γ_BG berechnet. Bevorzugte Werte für γ_komp liegen demnach zwischen 1/2,2 und 1/1,45. Falls das Bildschirmgerät 2 eine Kamera ist, wird bevorzugt γ_komp = 1/1,95 verwendet. Wiederum ist LI_BP_ges_komp = LI_BP_ges ^ γ_komp.
  • In einer ersten Ausgestaltung der Gamma-Kompensation wird zunächst die Gesamt-Farbton-Lichtintensität LI_BP_ges jedes Bildpunkts BP in ein vom Bildschirmgerät 2 verarbeitbares Eingangsignal transformiert, ohne hierbei das Gamma-Verhalten des Bildschirmgeräts 2 zu berücksichtigen. Anschließend wird aus dem Eingangssignal ein das Gamma-Verhalten kompensierendes Eingangssignal berechnet. Falls jedes verarbeitbare Eingangssignal ein 8-Bit-RGB-Vektor ist, wird also beim zweiten Berechnungsschritt aus jeweils einem 8-Bit-RGB-Vektor ein anderer 8-Bit-RGB-Vektor berechnet.
  • In einer zweiten Ausgestaltung der Gamma-Kompensation werden diese beiden Schritte in der umgekehrten Reihenfolge durchgeführt. Zunächst wird aus der Gesamt-Farbton-Lichtintensität LI_BP_ges jedes Bildpunkts eine das Gamma-Verhalten des Bildschirmgeräts 2 kompensierende Gesamt-Farbton-Lichtintensität LI_BP_ges_komp berechnet. Bei diesem ersten Schritt wird nicht berücksichtigt, welche Eingangssignale das Bildschirmgerät 2 zu verarbeiten vermag. Anschließend wird die kompensierende Gesamt-Farbton-Lichtintensität in ein verarbeitbares und kompensierendes Eingangssignal transformiert.
  • Eine Fortbildung der zweiten Ausbildung wird dann angewendet, wenn zunächst eine Vorab-Darstellung berechnet wurde, die den Gegenstand bei Beleuchtung nur durch die erste Lichtquelle zeigt, und anschließend eine Darstellung berechnet wird, die den Gegenstand bei Beleuchtung durch beide Lichtquellen zeigt. Die Auswahl der Bildpunkte bleibt unverändert. Um die Vorab-Darstellung zu berechnen, wurde für jeden Bildpunkt eine Gamma-Verhalten kompensierende erste Farbton-Lichtintensität LI_BP_1_komp berechnet. Dies geschieht, indem wie oben beschrieben die erste Farbton-Lichtintensität LI_BP_1 berechnet wird und anschließend mit Hilfe der invertierten Gamma-Transfer-Funktion Γ–1 die kompensierende erste Farbton-Lichtintensität gemäß der Rechenvorschrift LI_BP_1_komp = Γ–1(LI_BP_1) berechnet wird. Diese Berechnungsergebnisse werden bevorzugt wiederverwendet.
  • Insbesondere wird die kompensierende erste Farbton-Lichtintensität LI_BP_1_komp jedes Bildpunkts BP wiederverwendet. Um die Darstellung, die den Gegenstand bei Beleuchtung durch die beiden Lichtquellen zeigt, zu berechnen, wird wie oben beschrieben eine zweite Farbton-Lichtintensität LI_BP_2 des Bildpunkts BP berechnet. Aus dieser wird eine kompensierende zweite Farbton-Lichtintensität LI_BP_2_komp gemäß der Rechenvorschrift LI_BP_2_komp = Γ–1(LI_BP_2) berechnet. Die kompensierende Gesamt-Farbton-Lichtintensität LI_BP_ges_komp wird anschließend berechnet, indem die beiden kompensierenden Farbton-Lichtintensitäten LI_BP_1_komp und LI_BP_2_komp aggregiert werden. Dies geschieht vorzugsweise gemäß der Rechenvorschrift LI_BP_ges_komp = Γ–1[Γ(LI_BP_1_komp) + Γ(LI_BP_2_komp)].
  • Falls die beiden Farbton-Lichtintensitäten RGB-Vektoren sind, werden die Berechnungen komponentenweise durchgeführt, also separat für den Rotwert, Grünwert und Blauwert.
  • Eine entsprechende Ausgestaltung wird bevorzugt auch dann durchgeführt, wenn nachträglich das Glanzlicht berücksichtigt wird, das durch die erste Beleuchtung hervorgerufen wird. Zuvor wurde eine Vorab-Darstellung erzeugt, die das Glanzlicht durch die erste Beleuchtung nicht berücksichtigt. Wie oben beschrieben, wurde hierfür ein erster Beleuchtungswert BL1_BP jedes Bildpunkts BP berechnet, ohne Glanzlichter zu berücksichtigen, und bei der Vorab-Darstellung als erster Hellig keitswert HW1_BP verwendet. Aus dem ersten Helligkeitswert HW1_BP wird eine erste Farbton-Lichtintensität LI_BP_1 des Bildpunkts BP berechnet. Aus dieser ersten Farbton-Lichtintensität LI_BP_1 wird eine kompensierende erste Farbton-Lichtintensität LI_BP_1_komp berechnet.
  • Diese „alte" erste kompensierende erste Farbton-Lichtintensität LI_BP_1_komp alt wird nun wiederverwendet. Wie oben beschrieben, wird ein erster Glanzlichtwert GW1_BP berechnet. Vorgegeben wird eine Farbton-Lichtintensität LI_LQ_1 der ersten Beleuchtung. Die „neue" erste kompensierende erste Farbton-Lichtintensität LI_BP_1_komp neu wird gemäß der Rechenvorschrift LI_BP_1_komp_neu = Γ–1[Γ(LI_BP_1_komp_alt) + GW1_BP·LI_LQ_1]
  • Eine Darstellung 9 des beleuchteten Gegenstandes wird erzeugt. Diese Darstellung 9 umfaßt die ausgewählten Bildpunkte des Konstruktionsmodells 8. Durch das Konstruktionsmodell 8 sind deren Positionen in einem vorgegebenen Koordinatensystem vorgegeben. Zur erzeugten Darstellung 9 gehört weiterhin pro ausgewähltem Bildpunkt je ein verarbeitbares Eingangssignal für den Bildpunkt, das wie gerade beschrieben erzeugt wird.
  • An das Bildschirmgerät 2 wird die Darstellung 9 einschließlich der Positionen und den verarbeitbaren Eingangssignalen der ausgewählten Bildpunkte übermittelt. Das Bildschirmgerät 2 zeigt die Darstellung 9 unter Verwendung dieser Positionen und Eingangssignale an.
  • 5 zeigt ein Flußdiagramm, das die Erzeugung der Darstellung 9 veranschaulicht. Es zeigt folgende Schritte:
    Im Schritt S1 wird die Oberfläche des Konstruktionsmodells 8 vernetzt. Als Ergebnis E1 entstehen Flächenelemente.
  • Unter Verwendung des Ergebnisses E1 und der vorgegebenen Betrachtungsrichtung v → werden für jedes Flächenelement FE folgende Schritte durchgeführt:
    • – Im Schritt S2 wird eine Normale n → auf FE berechnet.
    • – Im Schritt S3 werden diejenigen Flächenelemente ermittelt, die aus der Betrachtungsrichtung v → heraus sichtbar sind. Die sichtbaren Flächenelemente bilden das Ergebnis E2.
    • – In Schritt S4 werden Punkte dieser sichtbaren Flächenelemente als Bildpunkte der zu erzeugenden Darstellung 9 ausgewählt. Die ausgewählten Bildpunkte bilden das Ergebnis E3.
  • Für jeden ausgewählten Bildpunkt BP werden anschließend folgende Schritte durchgeführt:
    • – Ein Normalenvektor n → für den ausgewählten Bildpunkt BP wird berechnet, wofür die Normalenvektoren der Flächenelemente verwendet werden.
    • – Im Schritt S5 wird die aus der ersten Beleuchtung resultierende Farbton-Lichtintensität LI_BP_1 des Bildpunkts BP berechnet. Die Berechnung wird durch 6 detailliert gezeigt.
    • – Im Schritt S6 wird die aus der zweiten Beleuchtung resultierende Farbton-Lichtintensität LI_BP_2 des Bildpunkts BP berechnet. Diese Berechnung wird analog zu der durch 6 illustrierten Berechnung durchgeführt. Die Schritte S5 und S6 können nacheinander oder parallel durchgeführt werden.
    • – Im Schritt S7 werden die erste Farbton-Lichtintensität LI_BP_1 und die zweite Farbton-Lichtintensität LI_BP_2 zu einer Gesamt-Farbton-Lichtintensität LI_BP_ges aggregiert.
    • – In Schritt S8 wird diese Gesamt-Farbton-Lichtintensität LI_BP_ges in ein vom Bildschirmgerät 2 verarbeitbares Eingangssignal ES_BP transformiert.
  • Im Schritt S20 wird anschließend die Darstellung 9 des Gegenstandes erzeugt. Hierfür werden die ausgewählten Bildpunkte sowie deren berechnete verarbeitbare Eingangssignale und deren durch das Konstruktionsmodell 8 vorgegebenen Positionen verwendet.
  • 6 detailliert den Schritt S5, illustriert also, wie die aus der ersten Beleuchtung resultierende Farbton-Lichtintensität LI_BP_1 des Bildpunkts BP berechnet wird.
    • – Im Schritt S9 wird eine Normale n → für den Bildpunkt BP berechnet.
    • – Im Schritt S10 wird der Winkel θ1 zwischen der Normalen n → und der ersten Beleuchtungsrichtung r1 → berechnet.
    • – Im Schritt S11 wird die vorgegebene erste Helligkeitsfunktion HF1 auf den Winkel θ1 angewendet, um HF1(θ1) zu berechnen.
    • – Im Schritt S21 wird der erste Beleuchtungswert BL1_BP aus dem vorgegebenen Basis-Farbton FT_BP und dem Funktionswert HF1(θ1) berechnet.
    • – Insbesondere im Falle einer Zentralprojektion wird im Schritt S18 aus einer vorgegebenen Betrachtungsposition BPos eine Betrachtungsrichtung v → berechnet.
    • – Im Schritt S12 wird die vorgegebene oder berechnete Betrachtungsrichtung v → an der Normalen n → gespiegelt, was die gespiegelte Betrachtungsrichtung s → liefert.
    • – Im Schritt S13 wird der Winkel ρ1 zwischen der gespiegelten Betrachtungsrichtung s → und der ersten Beleuchtungsrichtung r1 → berechnet.
    • – Im Schritt S14 wird die vorgegebene erste Glanzlichtfunktion GF1 auf den Winkel ρ1 angewendet, um GF1(ρ1) zu berechnen.
    • – In Schritt S22 wird der erste Glanzlichtwert GW_BP aus dem vorgegebenen Glanzlicht-Farbton GFT_BP und dem Funktionswert GF1(ρ1) berechnet.
    • – Im Schritt S16 wird der erste Helligkeitswert HW1_BP berechnet. Hierfür werden der Beleuchtungswert BL1_BP und der Glanzlichtwert GW_1BP zum ersten Helligkeitswert aggregiert, z. B. durch Addition.
    • – Im Schritt S17 wird die erste Farbton-Lichtintensität LI_BP_1 berechnet. Hierfür werden der erste Helligkeitswert HW1_BP, der vorgegebene Basis-Farbton FT_BP des Bildpunkts BP und die vorgegebene Farbton-Lichtintensität LI_LQ1 der ersten Beleuchtung verwendet.
  • Die Abfolge S9 – S10 – S11 und die Abfolge S18 – S12 – S13 – S14 können nacheinander oder zeitlich parallel ausgeführt werden.
  • Eine rechnerverfügbare Darstellung 9 des beleuchteten Gegenstandes wird erzeugt. Dies geschieht in Schritt S20 von
  • 5. Diese Darstellung 9 wird in dem Ausführungsbeispiel mit Hilfe des Konstruktionsmodells 8 generiert. Sie umfaßt die ausgewählten Bildpunkte und deren Positionen und berechneten resultierenden Farbton-Lichtintensitäten.
  • In der bislang beschriebenen Ausführungsform wird die Darstellung 9 unmittelbar nach ihrer Erzeugung an das Bildschirmgerät 2 übermittelt und von diesem angezeigt. In einer Abwandlung dieser Ausführungsform wird statt dessen eine Datei erzeugt, die die erzeugte Darstellung 9 umfaßt. Diese Datei wird zu einem gewünschten Zeitpunkt an das Bildschirmgerät 2 übermittelt und von diesem angezeigt. Die Übermittlung wird z. B. mittels einer CD oder einem anderen mobilen Datenträger oder aber mittels des Internets oder eines anderen Datennetzes durchgeführt. Möglich ist, dass eine erste Datenverarbeitungsanlage die Datei mit der Darstellung 9 erzeugt und eine zweite Datenverarbeitungsanlage diese Datei auswertet und die Darstellung 9 anzeigt.
  • Im Beispiel der 8 und 9 ist der beleuchtete Gegenstand ein kugelförmiges Bauteil eines Kraftfahrzeugs mit einer matten Oberfläche. Dieses Bauteil wird von zwei künstlichen Lichtquellen beleuchtet. Die erste Lichtquelle beleuchtet das kugelförmige Bauteil aus einem Winkel von 120 Grad, die zweite aus einem von 230 Grad zu einer vorgegebenen Referenz-Betrachtungsrichtung. Zwischen der ersten und der zweiten Beleuchtungsrichtung liegt also ein Winkel von 110 Grad. Auf der x-Achse ist der Winkel θ zwischen der vorgegebenen Betrachtungsrichtung v → und einer variierenden Richtung der Normalen n → aufgetragen.
  • Im Beispiel der 8 wird eine aus Lichtintensitäten in Form von Grautönen bestehende Darstellung 9 erzeugt. In diesem Beispiel vermag das Bildschirmgerät 2 Eingangssignale zu verarbeiten, die zwischen 0 und 1 (einschließlich) liegen. Beispielsweise repräsentiert 0 den Grauton „Schwarz", 1 den Grauton „weiß". Als Eingangssignal-Menge wird also das Intervall von 0 bis 1 verwendet. Das Bildschirmgerät 2 zeigt einen Bildpunkt in Abhängigkeit von einem zwischen 0 und 1 (einschließlich) liegenden Eingangssignal dar, und zwar mit einer Lichtintensität, die um so größer ist, je größer das Eingangssignal ist.
  • Die beiden Eingangssignale werden durch Transformation der beiden Lichtintensitäten in die Eingangssignal-Menge erzeugt. Das erste Eingangsignal eines Bildpunkts ist proportional zum cosinus des Winkels zwischen der ersten Beleuchtungsrichtung r1 → und einer Normalen n → im Bildpunkt auf der Oberfläche des Konstruktionsmodells 8 für das Bauteil. Das zweite Eingangsignal eines Bildpunkts ist proportional zum cosinus des Winkels zwischen der zweiten Beleuchtungsrichtung r2 → und der Normalen n → auf der Oberfläche des Konstruktionsmodells 8 für das Bauteil im Bildpunkt. Die Kurven 31 und 32 von 8 zeigen den Verlauf des ersten bzw. des zweiten Eingangssignals in Abhängigkeit von diesem Winkel.
  • Die beiden Lichtquellen im Beispiel der 8 sind keine idealen Lichtquellen, die paralleles gerichtetes Licht abstrahlen. Denn bei idealen Lichtquellen wäre zwar die einge strahlte Lichtintensität proportional zu dem Cosinus der Winkel (Lambert-Gesetz), nicht aber die Eingangssignale. Diese Eingangssignale hängen vom Bildschirmgerät 2 ab.
  • Die Kurve 33 zeigt die Summe der beiden Eingangssignale. Sie hat ihr Maximum in der Mitte bei einem Winkel von 175 Grad und muß bei 1 abgeschnitten werden, damit die Summe zwischen 0 und 1 liegt und in diesem Beispiel ein verarbeitbares Eingangssignal liefert. Dieser Verlauf entspricht nicht der physikalischen Realität.
  • Die Kurve 34 zeigt das Eingangssignal, das bei Anwendung des erfindungsgemäßen Verfahrens berechnet wird. Sie gibt die physikalische Realität korrekt wieder: Der Verlauf des Eingangssignals weist zwei Maxima („Höcker") auf. Zwischen den beiden Lichtquellen, also für Winkel θ zwischen 120 Grad und 230 Grad, geht die Lichtintensität zurück.
  • Die Kurve 34 hängt wie folgt mit dem ersten und dem zweiten Eingangssignal sowie den beiden Lichtintensitäten zusammen: Seien LI_1 und LI_2 die beiden Lichtintensitäten eines Bildpunkts. Seinen ES_1 und ES_2 die beiden einzelnen Eingangssignale, deren Verläufe in Abhängigkeit vom Winkel durch die Kurven 31 und 32 gezeigt werden. Es ist ES_1 = LI_1γ_komp und ES_1 = LI_1γ_komp. Sei ES das erfindungsgemäß erzeugte Eingangssignal, dessen Verlauf durch Kurve 34 gezeigt wird. Es ist ES = [LI_1 + LI_2] ^ γ_komp = [LI_1 + LI_2]γ_komp = [ES_1 ^ 1/γ_komp + ES_2 ^ 1/γ_komp] ^ γ_komp = [ES_11/γ_komp + ES_21/γ_komp]γ_komp
  • 9 zeigt links eine Darstellung, die unter Verwendung der – physikalisch nicht korrekten – Aggregation gemäß der Kurve 33 von 8 erzeugt wurde. 9 zeigt rechts eine physikalisch korrekte Darstellung, die unter Verwendung der Kurve 34 von 8 erzeugt wurde.
  • Liste der verwendeten Bezugszeichen und Symbole
    Figure 00450001
  • Figure 00460001
  • Figure 00470001
  • Figure 00480001
  • Figure 00490001
  • Figure 00500001
  • Figure 00510001
  • Figure 00520001
  • Figure 00530001

Claims (23)

  1. Verfahren zur Erzeugung einer rechnerverfügbaren Darstellung (9) eines beleuchteten physikalischen Gegenstands auf einem Bildschirmgerät (2) einer Datenverarbeitungsanlage, wobei – eine erste Beleuchtungsrichtung (r1 →) als eine Richtung, aus der eine erste Beleuchtung auf den Gegenstand einwirkt, – eine zweite Beleuchtungsrichtung (r2 →) als eine Richtung, aus der eine zweite Beleuchtung auf den Gegenstand einwirkt, und ein rechnerverfügbares Konstruktionsmodell (8) des Gegenstandes vorgegeben werden und das Verfahren die automatisch durchgeführten Schritte umfaßt, dass – Bildpunkte (BP) des Konstruktionsmodells (8) ausgewählt werden, – für jeden ausgewählten Bildpunkt (BP) in Abhängigkeit von der ersten Beleuchtungsrichtung (r1 →) eine aus der ersten Beleuchtung des Gegenstandes resultierende erste Lichtintensität (LI_BP_1) des Bildpunkts (BP) berechnet wird, – für jeden ausgewählten Bildpunkt (BP) in Abhängigkeit von der zweiten Beleuchtungsrichtung (r2 →) eine aus der zweiten Beleuchtung des Gegenstandes resultierende zweite Lichtintensität (LI_BP_2) des Bildpunkts (BP) berechnet wird, – für jeden ausgewählten Bildpunkt (BP) in Abhängigkeit von den beiden Lichtintensitäten (LI_BP_1, LI_BP_2) des Bildpunkts (BP) eine Gesamt-Lichtintensität (LI_BP_ges) des Bildpunkts (BP) berechnet wird, – die Gesamt-Lichtintensität (LI_BP_ges) jedes ausgewählten Bildpunkts (BP) in ein vom Bildschirmgerät (2) verarbeitbares Eingangssignal (ES_BP) für den Bildpunkt (BP) transformiert wird, – unter Verwendung der ausgewählten Bildpunkte und der Eingangssignale der Bildpunkte die Darstellung (9) des physikalischen Gegenstandes erzeugt wird, – die Darstellung (9) an das Bildschirmgerät (2) übermittelt und auf dem Bildschirmgerät (2) angezeigt wird, wobei jeder Bildpunkt (BP) auf dem Bildschirmgerät (2) mit einer vom Eingangssignal (ES_BP) abhängenden Anzeige-Lichtintensität angezeigt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass – eine Betrachtungsrichtung (v →) auf den Gegenstand vorgegeben wird, – ermittelt wird, welche Bereiche der Oberfläche des Konstruktionsmodells (8) aus der Betrachtungsrichtung (v →) sichtbar sind, – ausschließlich solche Bildpunkte ausgewählt werden, die in einem sichtbaren Bereich der Oberfläche liegen, und – die Darstellung (9) dergestalt erzeugt wird, dass sie den Gegenstand aus der Betrachtungsrichtung (v →) zeigt.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass – eine Betrachtungsposition (BPos) auf den Gegenstand vorgegeben wird, – ermittelt wird, welche Bereiche der Oberfläche des Konstruktionsmodells (8) aus der Betrachtungsposition (BPos) aus sichtbar sind, – ausschließlich solche Bildpunkte ausgewählt werden, die in einem sichtbaren Bereich der Oberfläche liegen, und – die Darstellung (9) dergestalt erzeugt wird, dass sie den Gegenstand aus der Betrachtungsposition (BPos) zeigt.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass für jeden ausgewählten Bildpunkt (BP) – eine Normale (n →) auf das Konstruktionsmodell (8) im Bildpunkt (BP) berechnet wird, – ein erster Winkel (θ1) zwischen der Normalen (n →) und der ersten Beleuchtungsrichtung (r1 →) berechnet wird, – ein zweiter Winkel (θ2) zwischen der Normalen (n →) und der zweiten Beleuchtungsrichtung (r2 →) berechnet wird, – die erste Lichtintensität (LI_BP_1) des Bildpunkts (BP) in Abhängigkeit vom ersten Winkel (θ1) berechnet wird und – die zweite Lichtintensität (LI_BP_2) des Bildpunkts (BP) in Abhängigkeit vom zweiten Winkel (θ2) berechnet wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass eine erste Helligkeitsfunktion (HF1) und eine zweite Helligkeitsfunktion (HF2) vorgegeben werden, die erste Lichtintensität (LI_BP_1) jedes Bildpunkts (BP) unter Verwendung des Funktionswerts der ersten Helligkeitsfunktion (HF1) für den ersten Winkel (θ1) berechnet wird und die zweite Lichtintensität (LI_BP_2) jedes Bildpunkts (BP) unter Verwendung des Funktionswerts der zweiten Helligkeitsfunktion (HF2) für den zweiten Winkel (θ2) berechnet wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die erste Helligkeitsfunktion (HF1) mit der zweiten Helligkeitsfunktion (HF2) übereinstimmt.
  7. Verfahren nach Anspruch 5 oder Anspruch 6, dadurch gekennzeichnet, dass mindestens eine der beiden Helligkeitsfunktionen (HF1, HF2) jedem Winkel (θ), der größer oder gleich 0 Grad und kleiner als 180 Grad ist, einen Funktionswert zuordnet, der größer als 0 ist.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass – als erster Abstand (dist(LQ_1,G)) ein Abstand des Gegenstandes von der Lichtquelle der ersten Beleuchtung sowie als zweiter Abstand (dist(LQ_2,G)) ein Abstand des Gegenstandes von der Lichtquelle der zweiten Beleuchtung vorgegeben werden, – für jeden ausgewählten Bildpunkt (BP) die erste Lichtintensität (LI_BP_1) des Bildpunkts (BP) in Abhängigkeit vom ersten Abstand (dist(LQ_1,G)) berechnet wird und – für jeden ausgewählten Bildpunkt (BP) die zweite Lichtintensität (LI_BP_1) des Bildpunkts (BP) in Abhängigkeit vom zweiten Abstand (dist(LQ_2,G)) berechnet wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Gesamt-Lichtintensität (LI_BP_ges) mindestens eines ausgewählten Bildpunkts (BP) als Summe der ersten Lichtintensität (LI_BP_1) und der zweiten Lichtintensität (LI_BP_2) des Bildpunkts (BP) berechnet wird.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass – eine erste Farbton-Lichtintensität (LI_LQ_1) der ersten Beleuchtung und eine zweite Farbton-Lichtintensität (LI_LQ_2) der zweiten Beleuchtung – sowie für jeden ausgewählten Bildpunkt (BP) je ein Basis-Farbton (FT_BP) vorgegeben werden, wobei die Farbton-Lichtintensitäten (LI_LQ_1, LI_LQ_2) die Farbtöne und Lichtintensitäten der beiden Beleuchtungen und jeder Basis-Farbton (FT_BP) den Farbton eines Bildpunkts beschreiben und für jeden ausgewählten Bildpunkt (BP) – in Abhängigkeit von der ersten Beleuchtungsrichtung (r1 →), dem Basis-Farbton (FT_BP) des Bildpunktes (BP) und der ersten Farbton-Lichtintensität (LI_LQ_1) eine erste Farbton-Lichtintensität des Bildpunkts (BP) berechnet und als die erste Lichtintensität (LI_BP_1) des Bildpunktes (BP) verwendet wird – in Abhängigkeit von der zweiten Beleuchtungsrichtung (r2 →), dem Basis-Farbton (FT_BP) des Bildpunktes (BP) und der zweiten Farbton-Lichtintensität (LI_LQ_2) eine zweite Farbton-Lichtintensität des Bildpunkts (BP) berechnet und als die zweite Lichtintensität (LI_BP_2) des Bildpunktes (BP) verwendet wird und – in Abhängigkeit von den beiden Farbton-Lichtintensitäten (LI_BP_1, LI_BP_2) des Bildpunkts (BP) eine Gesamt-Farbton-Lichtintensität des Bildpunkts berechnet und als die Gesamt-Lichtintensität (LI_BP_ges) des Bildpunkts (BP) verwendet wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass – die erste Farbton-Lichtintensität (LI_LQ_1), die zweite Farbton-Lichtintensität (LI_LQ_2) und der Basis-Farbton (FT_BP) jedes ausgewählten Bildpunkts (BP) in Form je eines RGB-Vektors vorgegeben werden und – die erste Farbton-Lichtintensität (LI_BP_1) und die zweite Farbton-Lichtintensität (LI_BP_2) sowie die Gesamt-Farbton-Lichtintensität (LI_BP_ges) jedes ausgewählten Bildpunkts (BP) in Form je eines RGB-Vektors berechnet wird.
  12. Verfahren nach Anspruch 10 oder Anspruch 11, dadurch gekennzeichnet, dass – die Gesamt-Farbton-Lichtintensität (LI_BP_ges) jedes ausgewählten Bildpunkts (BP) in einen vom Bildschirmgerät (2) verarbeitbaren RGB-Vektor transformiert wird, – der als das Eingangssignal (ES_BP) für den Bildpunkt (BP) verwendet wird.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass der als Eingangssignal (ES_BP) für den ausgewählten Bildpunkt (BP) verwendete RGB-Vektor aus einem 8-Bit-Rotwert (ES_BP_r), einem 8-Bit-Grünwert (ES_BP_g) und einem 8-Bit-Blauwert (ES_BP_b) besteht.
  14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass das Bildschirmgerät (2) ein Gamma-Verhalten aufweist, das die Anzeige-Lichtintensitäten der Bildpunkte beeinflußt, und die Gesamt-Lichtintensität (LI_BP_ges) jedes ausgewählten Bildpunkts (BP) dergestalt in ein Eingangssignal (ES_BP) transformiert wird, dass das an das Bildschirmgerät (2) übermittelte Eingangssignal (ES_BP) das Gamma-Verhalten des Bildschirmgeräts (2) kompensiert.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass für jeden ausgewählten Bildpunkt (BP) – bei der Transformation der berechneten Gesamt-Lichtintensität (LI_BP_ges) ein von der Gesamt-Lichtintensität (LI_BP_ges) abhängendes verarbeitbares Signal erzeugt wird und – in Abhängigkeit von diesem Signal ein das Gamma-Verhalten kompensierendes Eingangssignal berechnet und als das Eingangssignal (ES_ BP) für den Bildpunkt (BP) übermittelt wird.
  16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass für jeden ausgewählten Bildpunkt (BP) – in Abhängigkeit von der berechneten Gesamt-Lichtintensität (LI_BP_ges) eine das Gamma-Verhalten kompensierende Gesamt-Lichtintensität (LI_BP_ges_komp) des Bildpunkts (BP) berechnet wird – und das Eingangsignal (ES_BP) für den Bildpunkt (BP) durch Transformation der kompensierenden Gesamt-Lichtintensität (LI_BP_ges_komp) berechnet wird.
  17. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass – das Bildschirmgerät (2) ein Gamma-Verhalten aufweist, das die Anzeige-Lichtintensitäten der Bildpunkte beeinflußt, – für jeden ausgewählten Bildpunkt (BP) in Abhängigkeit von der ersten Lichtintensität (LI_BP_1) des Bildpunkts (BP) eine das Gamma-Verhalten kompensierende erste Lichtintensität (LI_BP_1_komp) des Bildpunkts (BP) berechnet wird, – für jeden ausgewählten Bildpunkt (BP) in Abhängigkeit von der zweiten Lichtintensität (LI_BP_2) des Bildpunkts (BP) eine das Gamma-Verhalten kompensierende zweite Lichtintensität (LI_BP_2_komp) des Bildpunkts (BP) berechnet wird, – für jeden ausgewählten Bildpunkt (BP) in Abhängigkeit von den beiden kompensierenden Lichtintensitäten (LI_BP_1_komp, LI_BP_2_komp) des Bildpunkts (BP) eine das Gamma-Verhalten kompensierende Gesamt-Lichtintensität (LI_BP_ges_komp) des Bildpunkts (BP) berechnet und als die Gesamt-Lichtintensität (LI_BP_ges) des Bildpunkts (BP) verwendet wird.
  18. Verfahren nach einem der Ansprüche 14 bis 17, dadurch gekennzeichnet, dass das Gamma-Verhalten des Bildschirms durch eine Gamma-Transfer-Funktion (Γ) beschrieben wird und die kompensierenden Lichtintensitäten unter Verwendung der Umkehrfunktion (Γ–1) der Gamma-Transfer-Funktion (Γ) berechnet werden.
  19. Computerprogramm-Produkt, das in den internen Speicher eines Computers geladen werden kann und Softwareabschnitte umfaßt, mit denen ein Verfahren nach einem der Ansprüche 1 bis 18 ausführbar ist, wenn das Produkt auf einem Computer läuft.
  20. Computerprogramm-Produkt, das auf einem von einem Computer lesbaren Medium gespeichert ist und das von einem Computer lesbare Programm-Mittel aufweist, die den Computer veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 18 auszuführen.
  21. Datenverarbeitungsanlage, die – eine Informationsweiterleitungsschnittstelle zu einem Datenspeicher (3), in dem ein rechnerverfügbares Konstruktionsmodell (8) eines physikalischen Gegenstandes und eine rechnerverfügbare Beschreibung einer Beleuchtung des Gegenstandes abgespeichert sind, und – eine Informationsweiterleitungsschnittstelle zu einem Bildschirmgerät (2) umfaßt, wobei die Beleuchtungs-Beschreibung – eine erste Beleuchtungsrichtung (r1 →) als eine Richtung, aus der eine erste Beleuchtung auf den Gegenstand einwirkt, und – eine zweite Beleuchtungsrichtung (r2 →) als eine Richtung, aus der eine zweite Beleuchtung auf den Gegenstand einwirkt, umfaßt und wobei die Datenverarbeitungsanlage zur Durchführung der folgenden Schritte ausgestaltet ist: – Auswählen von Bildpunkten (BP) des Konstruktionsmodells (8), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer aus der ersten Beleuchtung des Gegenstandes resultierenden ersten Lichtintensität (LI_BP_1) des Bildpunkts (BP) in Abhängigkeit von der ersten Beleuchtungsrichtung (r1 →), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer aus der zweiten Beleuchtung des Gegenstandes resultierenden zweiten Lichtintensität (LI_BP_2) des Bildpunkts (BP) in Abhängigkeit von der zweiten Beleuchtungsrichtung (r2 →), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer Gesamt-Lichtintensität (LI_BP_ges) des Bildpunkts (BP) in Abhängigkeit von den beiden Lichtintensitäten (LI_BP_1, LI_BP_2) des Bildpunkts (BP), – Transformieren der Gesamt-Lichtintensität (LI_BP_ges) jedes ausgewählten Bildpunkts (BP) in ein vom Bildschirmgerät (2) verarbeitbares Eingangssignal (ES_BP) für den Bildpunkt (BP), – Erzeugen einer rechnerverfügbaren Darstellung (9) des beleuchteten Gegenstandes unter Verwendung der ausgewählten Bildpunkte und der Eingangssignale der Bildpunkte, – Übermitteln der Darstellung (9) an das Bildschirmgerät (2) und – Auslösen des Anzeigens der Darstellung (9) auf dem Bildschirmgerät (2) dergestalt, dass das Bildschirmgerät (2) jeden ausgewählten Bildpunkt (BP) mit einer vom Eingangssignal (ES_BP) abhängenden Anzeige-Lichtintensität anzeigt.
  22. Computerprogramm-Produkt, das – eine Informationsweiterleitungsschnittstelle zu einem Datenspeicher (3), in dem ein rechnerverfügbares Konstruktionsmodell (8) eines physikalischen Gegenstandes und eine rechnerverfügbare Beschreibung einer Beleuchtung des Gegenstandes abgespeichert sind, und – eine Informationsweiterleitungsschnittstelle zu einem Bildschirmgerät (2) umfaßt und wobei die Beleuchtungs-Beschreibung – eine erste Beleuchtungsrichtung (r1 →) als eine Richtung, aus der eine erste Beleuchtung auf den Gegenstand einwirkt, und – eine zweite Beleuchtungsrichtung (r2 →) als eine Richtung, aus der eine zweite Beleuchtung auf den Gegenstand einwirkt, umfaßt und wobei das Computerprogramm-Produkt zur Durchführung der folgenden Schritte ausgestaltet ist: – Auswählen von Bildpunkten (BP) des Konstruktionsmodells (8), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer aus der ersten Beleuchtung des Gegenstandes resultierenden ersten Lichtintensität (LI_BP_1) des Bildpunkts (BP) in Abhängigkeit von der ersten Beleuchtungsrichtung (r1 →), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer aus der zweiten Beleuchtung des Gegenstandes resultierenden zweiten Lichtintensität (LI_BP_2) des Bildpunkts (BP) in Abhängigkeit von der zweiten Beleuchtungsrichtung (r2 →), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer Gesamt-Lichtintensität (LI_BP_ges) des Bildpunkts (BP) in Abhängigkeit von den beiden Lichtintensitäten (LI_BP_1, LI_BP_2) des Bildpunkts (BP), – Transformieren der Gesamt-Lichtintensität (LI_BP_ges) jedes ausgewählten Bildpunkts (BP) in ein vom Bildschirmgerät (2) verarbeitbares Eingangssignal (ES_BP) für den Bildpunkt (BP), – Erzeugen einer rechnerverfügbaren Darstellung (9) des beleuchteten Gegenstandes unter Verwendung der ausgewählten Bildpunkte und der Eingangssignale der Bildpunkte, – Übermitteln der Darstellung (9) an das Bildschirmgerät (2) und – Auslösen des Anzeigens der Darstellung (9) auf dem Bildschirmgerät (2) dergestalt, dass das Bildschirmgerät (2) jeden ausgewählten Bildpunkt (BP) mit einer vom Eingangssignal (ES_BP) abhängenden Anzeige-Lichtintensität anzeigt.
  23. Computerprogramm-Produkt nach Anspruch 22, dadurch gekennzeichnet, dass das Bildschirmgerät (2) ein Gamma-Verhalten aufweist, das die Anzeige-Lichtintensitäten der Bildpunkte beeinflußt, und das Computerprogramm-Produkt zur Durchführung der folgenden Schritte ausgestaltet ist: – für jeden ausgewählten Bildpunkt (BP) Berechnen einer das Gamma-Verhalten kompensierenden ersten Lichtintensität (LI_BP_1_komp) des Bildpunkts (BP) in Abhängigkeit von der ersten Lichtintensität (LI_BP_1) des Bildpunkts (BP), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer das Gamma-Verhalten kompensierenden zweiten Lichtintensität (LI_BP_2_komp) des Bildpunkts (BP) in Abhängigkeit von der zweiten Lichtintensität (LI_BP_2) des Bildpunkts (BP), – für jeden ausgewählten Bildpunkt (BP) Berechnen einer das Gamma-Verhalten kompensierenden Gesamt-Lichtintensität (LI_BP_ges_komp) des Bildpunkts (BP) in Abhängigkeit von den beiden kompensierenden Lichtintensitäten (LI_BP_1_komp, LI_BP_2_komp) des Bildpunkts (BP) und Verwenden der kompensierenden Gesamt-Lichtintensität (LI_BP_ges_komp) als die Gesamt-Lichtintensität (LI_BP_ges) des Bildpunkts (BP).
DE200510003428 2004-06-15 2005-01-25 Verfahren und Vorrichtung zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands Withdrawn DE102005003428A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE200510003428 DE102005003428A1 (de) 2005-01-25 2005-01-25 Verfahren und Vorrichtung zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands
PCT/EP2005/006320 WO2005124695A2 (de) 2004-06-15 2005-06-13 Verfahren zum erzeugen einer räumlichen darstellung
US11/153,116 US20070008310A1 (en) 2004-06-15 2005-06-15 Method for generating a three-dimensional display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200510003428 DE102005003428A1 (de) 2005-01-25 2005-01-25 Verfahren und Vorrichtung zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands

Publications (1)

Publication Number Publication Date
DE102005003428A1 true DE102005003428A1 (de) 2006-03-23

Family

ID=36001723

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200510003428 Withdrawn DE102005003428A1 (de) 2004-06-15 2005-01-25 Verfahren und Vorrichtung zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands

Country Status (1)

Country Link
DE (1) DE102005003428A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012201322B4 (de) 2012-01-31 2023-09-14 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogrammprodukt zum Ansteuern eines Anzeigegerätes zur Unterdrückung einer Blendwirkung für Fahrzeuginsassen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012201322B4 (de) 2012-01-31 2023-09-14 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogrammprodukt zum Ansteuern eines Anzeigegerätes zur Unterdrückung einer Blendwirkung für Fahrzeuginsassen

Similar Documents

Publication Publication Date Title
Glassner Principles of digital image synthesis
Christou et al. Visual realism and virtual reality: a psychological perspective
DE60120474T2 (de) Rasterung von dreidimensionalen bildern
WO2005124695A2 (de) Verfahren zum erzeugen einer räumlichen darstellung
DE102017009910A1 (de) Bearbeiten von Digitalbildern unter Nutzung eines neuronalen Netzwerkes mit einer netzwerkinternen Erstellungsschicht
DE19606357A1 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
Yoshida et al. Analysis of reproducing real‐world appearance on displays of varying dynamic range
DE10122949A1 (de) Bildanzeigevorrichtung und elektronisches Gerät unter Verwendung einer solchen, sowie Bildanzeigeverfahren mit einer solchen
Parraga et al. Which tone-mapping operator is the best? A comparative study of perceptual quality
DE19708679A1 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE102005061590A1 (de) Verfahren zur Visualisierung komplexer Lichtverteilungssätze technischer Beleuchtungssysteme
Miller et al. The application of computer graphics in lighting design
Spieringhs et al. Road marking contrast threshold revisited
EP1535202A1 (de) Verfahren zur simulation von optischen bauteilen zur stereoskopischen erzeugung von r umlichen endr cken
DE102005003428A1 (de) Verfahren und Vorrichtung zur Erzeugung einer Darstellung eines beleuchteten physikalischen Gegenstands
Moeck et al. A computer-based daylight systems design tool
Céline et al. Psychovisual assessment of tone-mapping operators for global appearance and colour reproduction
DE102005003427A1 (de) Verfahren zum Darstellen eines Gegenstandes auf einem Bildschirm
DE10250602A1 (de) System zum Erzeugen einer synthetischen Szene
DE102005003426A1 (de) Verfahren zur Kompensation des Gamma-Verhaltens
DE102006013860B4 (de) Verfahren und Vorrichtung zur Erzeugung einer räumlichen Darstellung
DE102004045119A1 (de) Verfahren zum Erzeugen einer räumlichen Darstellung
DE4436263A1 (de) Verfahren und System zur Darstellung der 3D-Meßdaten eines Volumens in zweidimensionalen Schnittbildern
Schmieder et al. Application oriented simulator display system specification
DE102005059928A1 (de) Verfahren und Vorrichtung zum Erzeugen einer räumlichen Darstellung

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

R005 Application deemed withdrawn due to failure to request examination

Effective date: 20120126