DE102022101854A1 - Method for analyzing a luminance distribution of light emanating from a lighting device for a vehicle - Google Patents

Method for analyzing a luminance distribution of light emanating from a lighting device for a vehicle Download PDF

Info

Publication number
DE102022101854A1
DE102022101854A1 DE102022101854.7A DE102022101854A DE102022101854A1 DE 102022101854 A1 DE102022101854 A1 DE 102022101854A1 DE 102022101854 A DE102022101854 A DE 102022101854A DE 102022101854 A1 DE102022101854 A1 DE 102022101854A1
Authority
DE
Germany
Prior art keywords
image
luminance distribution
human
lighting device
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022101854.7A
Other languages
German (de)
Inventor
Mathias Niedling
Katrin Schier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hella GmbH and Co KGaA
Original Assignee
Hella GmbH and Co KGaA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hella GmbH and Co KGaA filed Critical Hella GmbH and Co KGaA
Priority to CN202280039528.2A priority Critical patent/CN117413298A/en
Priority to PCT/EP2022/064222 priority patent/WO2022253672A1/en
Publication of DE102022101854A1 publication Critical patent/DE102022101854A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung für ein Fahrzeug ausgehenden Lichts, wobei in einem Verfahrensschritt ein digitales Bild (1) aufgenommen wird, das einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht, und wobei in einem weiteren Verfahrensschritt das digitale Bild (1) so verändert wird, dass das veränderte Bild (5) eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind.Method for analyzing a luminance distribution of the light emanating from a lighting device for a vehicle, wherein in a method step a digital image (1) is recorded, which corresponds to a luminance distribution of the light emanating from a lighting device for a vehicle, and wherein in a further method step the digital image (1) is changed in such a way that the changed image (5) is a reconstruction of the luminance distribution, which at least essentially only contains the elements or parts of the luminance distribution that can be perceived by a human being.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung für ein Fahrzeug ausgehenden Lichts.The present invention relates to a method for analyzing a luminance distribution of the light emanating from a lighting device for a vehicle.

Defekte Pixel von hochauflösenden Modulen sind nicht immer für den menschlichen Beobachter sichtbar, da sie von den umliegenden Pixeln überstrahlt werden können. Sind sie jedoch sichtbar, können sie den Fahrer ablenken, was zu einem erhöhten Sicherheitsrisiko führen kann. Sichtbare Pixelfehler führen zu einer ungewollten Veränderung des Lichtbilds und können den subjektiven Eindruck der Produktqualität deutlich verringern. Die Vorhersage ob ein defekter Pixel zu einer sichtbaren Veränderung des Lichtbilds führt ist nicht durch den reinen Leuchtdichteunterschied zwischen Defekt und der Umgebung vorhersagbar und stellt daher ein komplizierteres Problem dar, als auf den ersten Blick erkennbar ist.Defective pixels in high-resolution modules are not always visible to the human observer, since they can be outshone by the surrounding pixels. However, if they are visible, they can distract the driver, which can lead to an increased safety risk. Visible pixel errors lead to an unwanted change in the light image and can significantly reduce the subjective impression of the product quality. Predicting whether a defective pixel will lead to a visible change in the light image cannot be predicted purely from the difference in luminance between the defect and the environment and is therefore a more complicated problem than is apparent at first glance.

Es wäre wünschenswert, über eine Methodik zur Vorhersage der Sichtbarkeit von defekten Pixeln im Lichtbild einer Beleuchtungsvorrichtung für ein Fahrzeug zu verfügen.It would be desirable to have a methodology for predicting the visibility of defective pixels in the light image of a lighting device for a vehicle.

Das der vorliegenden Erfindung zugrunde liegende Problem ist daher die Angabe eines Verfahrens der eingangs genannten Art, das eine Aussage über die Wahrnehmbarkeit von Elementen oder Teilen einer Leuchtdichteverteilung durch einen Menschen ermöglicht.The problem on which the present invention is based is therefore the specification of a method of the type mentioned at the outset, which enables a statement to be made about the perceptibility of elements or parts of a luminance distribution by a person.

Dies wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art mit den Merkmalen des Anspruchs 1 erreicht. Die Unteransprüche betreffen bevorzugte Ausgestaltungen der Erfindung.According to the invention, this is achieved by a method of the type mentioned at the beginning with the features of claim 1 . The dependent claims relate to preferred embodiments of the invention.

Gemäß Anspruch 1 ist das Verfahren durch folgende Verfahrensschritte gekennzeichnet:

  • - ein digitales Bild, das einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht, wird aufgenommen,
  • - das digitale Bild wird so verändert, dass das veränderte Bild eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind.
According to claim 1, the method is characterized by the following method steps:
  • - a digital image corresponding to a luminance distribution of the light emanating from a lighting device of a vehicle is recorded,
  • - the digital image is changed in such a way that the changed image is a reconstruction of the luminance distribution, which at least essentially only contains the elements or parts of the luminance distribution that can be perceived by a human being.

Anhand des veränderten Bildes kann beispielsweise ermittelt werden, ob vorhandene Pixelfehler eines hochauflösenden Moduls einer Beleuchtungsvorrichtung zu einer sichtbaren Veränderung des Lichtbilds führen. Davon ausgehend kann dann entschieden werden, ob das Modul der Beleuchtungsvorrichtung trotz der Pixelfehler weiter benutzt werden kann oder ob es durch ein anderes Modul ersetzt werden muss.The changed image can be used to determine, for example, whether existing pixel errors in a high-resolution module of a lighting device lead to a visible change in the light image. Based on this, it can then be decided whether the module of the lighting device can continue to be used despite the pixel errors or whether it has to be replaced by another module.

Es kann vorgesehen sein, dass das digitale Bild mit einem Algorithmus verändert wird, der Verarbeitungsschritte des menschlichen visuellen Systems simuliert. Ein derartiger Ansatz eröffnet die Möglichkeit, vergleichsweise zuverlässige Aussagen über die Sichtbarkeit möglicher Veränderungen des Lichtbilds zu treffen.It can be provided that the digital image is changed using an algorithm that simulates processing steps of the human visual system. Such an approach opens up the possibility of making comparatively reliable statements about the visibility of possible changes in the photograph.

Dabei kann der Algorithmus, insbesondere in einem ersten Schritt, die Veränderung eines Bildes durch den optischen Aufbau eines menschlichen Auges simulieren. Weiterhin kann der Algorithmus, insbesondere in einem zweiten Schritt, die Verarbeitung einer Bildinformation zu einer Kontrastinformation, die insbesondere durch das menschliche Gehirn beziehungsweise durch Zelltypen in der Retina erfolgt, simulieren. Zusätzlich kann der Algorithmus, insbesondere in einem dritten Schritt, eine Sichtbarkeits-Schwelle bestimmen. Die Sichtbarkeits-Schwelle dient insbesondere dazu, zu entscheiden, welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen wahrnehmbar sind und welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen nicht wahrnehmbar sind, wobei die gemäß dieser Entscheidung nicht von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung nicht in das veränderte Bild aufgenommen werden. Dadurch kann gewährleistet werden, dass in dem veränderten Bild zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind. Insbesondere handelt es sich also um einen Algorithmus, der auf verschiedenen wahrnehmungspsychologischen Modellen basiert, die die ersten Verarbeitungsschritte des menschlichen visuellen Systems simulieren. Vorzugsweise basiert der Algorithmus auf drei einzelnen Teilmodellen, die seriell miteinander verknüpft werden. Das Ergebnis des Algorithmus ist eine Rekonstruktion der Leuchtdichteverteilung, in der nur noch die Elemente enthalten sind, die vom Menschen noch wahrgenommen werden können.The algorithm can, in particular in a first step, simulate the change in an image due to the optical structure of a human eye. Furthermore, the algorithm can, in particular in a second step, simulate the processing of image information into contrast information, which is carried out in particular by the human brain or by cell types in the retina. In addition, the algorithm can determine a visibility threshold, in particular in a third step. The visibility threshold is used in particular to decide which elements or parts of the luminance distribution can be perceived by a human and which elements or parts of the luminance distribution cannot be perceived by a human, with the elements or parts of the Luminance distribution are not included in the modified image. It can thereby be ensured that the changed image at least essentially only contains the elements or parts of the luminance distribution that can be perceived by a human being. In particular, it is an algorithm based on various perceptual-psychological models that simulate the first processing steps of the human visual system. The algorithm is preferably based on three individual sub-models that are serially linked to one another. The result of the algorithm is a reconstruction of the luminance distribution that only contains the elements that can still be perceived by humans.

Es besteht die Möglichkeit, dass das veränderte digitale Bild mit einem aus einer Soll-Leuchtdichteverteilung der Beleuchtungsvorrichtung generierten Bild verglichen wird, insbesondere um zu entscheiden, ob die von der Beleuchtungsvorrichtung erzeugte Lichtverteilung unter Berücksichtigung der Wahrnehmbarkeit durch einen Menschen geeigneten Vorgaben entspricht.It is possible for the changed digital image to be compared with an image generated from a target luminance distribution of the lighting device, in particular to decide whether the light distribution generated by the lighting device corresponds to suitable specifications, taking into account human perception.

Es kann vorgesehen sein, dass die Aufnahme des digitalen Bildes eine Leuchtdichtemessung ist oder in eine Leuchtdichteverteilung umgerechnet wird. Durch beide Möglichkeiten kann gewährleistet werden, dass das zu verändernde Bild einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht.It can be provided that the recording of the digital image is a luminance measurement or is converted into a luminance distribution. Both options can ensure that the image to be changed corresponds to a luminance distribution of the light emanating from a lighting device of a vehicle.

Es besteht die Möglichkeit, dass die Beleuchtungsvorrichtung eine Schlussleuchte oder ein Scheinwerfer ist, insbesondere ein hochauflösender Scheinwerfer, der eine Lichtverteilung mit einer Vielzahl von Pixeln erzeugen kann. Insbesondere bei hochauflösenden Scheinwerfern mit entsprechend komplex aufgebauten Modulen erweist es sich als sehr vorteilhaft, mit dem erfindungsgemäßen Verfahren über eine Methodik zur Vorhersage der Sichtbarkeit von defekten Pixeln im Lichtbild zu verfügen.There is a possibility that the lighting device is a tail lamp or a headlight, in particular a high-resolution headlight that can generate a light distribution with a large number of pixels. In particular in the case of high-resolution headlights with correspondingly complex modules, it has proven to be very advantageous to have a method for predicting the visibility of defective pixels in the light image using the method according to the invention.

Bei dem aufgenommenen digitalen Bild kann es sich beispielsweise um eine Aufnahme einer Scheinwerferlichtverteilung oder um eine Aufnahme einer Schlussleuchte handeln. Entsprechende Aufnahmen oder Leuchtdichtemessungen können als Eingabedaten des verwendeten Modells dienen. Als zusätzliche Eingangsparameter können beispielsweise Augenfarbe und Alter eines Beobachters sowie die Ortsauflösung des Leuchtdichtebilds verwendet werden.The recorded digital image can be, for example, a recording of a headlight distribution or a recording of a tail light. Corresponding recordings or luminance measurements can serve as input data for the model used. Eye color and age of an observer, for example, and the spatial resolution of the luminance image can be used as additional input parameters.

Das Verfahren erlaubt die allgemeine Vorhersage der Sichtbarkeit von Inhomogenitäten im Lichtbild einer Beleuchtungsvorrichtung, insbesondere ohne eine Anpassung der Parameter an die konkrete Umgebung. Ebenfalls kann vorgesehen sein, dass das Verfahren die Positionsbestimmung der Inhomogenität ermöglicht. Ein Verwendungszweck des Verfahrens ist also der Vorhersage der Erkennbarkeit von Störstellen beispielsweise in einer Scheinwerferlichtverteilung.The method allows the general prediction of the visibility of inhomogeneities in the light image of a lighting device, in particular without adapting the parameters to the specific environment. Provision can likewise be made for the method to enable the position of the inhomogeneity to be determined. One purpose of using the method is therefore to predict the detectability of imperfections, for example in a headlight distribution.

Anhand der beigefügten Zeichnungen wird die Erfindung nachfolgend näher erläutert. Dabei zeigt:

  • 1 eine schematische Darstellung eines Beispiels eines erfindungsgemäßen Verfahrens;
  • 2 eine beispielhafte Darstellung einer optischen Kontrastempfindlichkeitsfunktion des menschlichen Auges, wobei die Kontrastsensitivität gegen die Ortsfrequenz aufgetragen ist;
  • 3 ein beispielhafter Versuchsaufbau zur Aufnahme eines Bildes, das einer Leuchtdichteverteilung des von einem Scheinwerfer ausgehenden Lichts entspricht;
  • 4 ein Beispiel eines Bildes, das einer Leuchtdichteverteilung mit Pixelfehlern entspricht;
  • 5 das Bild gemäß 4 nach einer Änderung durch ein erfindungsgemäßes Verfahren.
The invention is explained in more detail below with reference to the attached drawings. It shows:
  • 1 a schematic representation of an example of a method according to the invention;
  • 2 an exemplary representation of an optical contrast sensitivity function of the human eye, the contrast sensitivity being plotted against the spatial frequency;
  • 3 an exemplary test setup for recording an image that corresponds to a luminance distribution of the light emanating from a headlight;
  • 4 an example of an image corresponding to a luminance distribution with pixel errors;
  • 5 the picture according to 4 after modification by a method according to the invention.

In den Figuren sind gleiche und funktional gleiche Teile und Bereiche mit gleichen Bezugszeichen versehen.Identical and functionally identical parts and areas are provided with the same reference symbols in the figures.

Hochauflösende Scheinwerfer ermöglichen die Erzeugung von Fahrspur- und Symbolprojektionen und bieten damit zusätzliche Informationen für den Fahrer und andere Verkehrsteilnehmer. Während auf der einen Seite die Möglichkeit besteht, einzelne Pixel hervorzuheben, soll das Lichtmuster ohne Projektionen einen gleichmäßigen Eindruck der Leuchtdichteverteilung vermitteln und keine auffälligen Intensitätsunterschiede zwischen benachbarten Pixeln aufweisen. Welche Intensitätsunterschiede zu sichtbaren Lücken im Lichtmuster führen, ist von einer Reihe von Parametern abhängig.High-resolution headlights enable the generation of lane and symbol projections and thus provide additional information for the driver and other road users. While on the one hand there is the possibility of emphasizing individual pixels, the light pattern should convey an even impression of the luminance distribution without projections and should not show any noticeable differences in intensity between neighboring pixels. Which intensity differences lead to visible gaps in the light pattern depends on a number of parameters.

Durch ein erfindungsgemäßes Verfahren kann ein Modell zur Vorhersage der Sichtbarkeit solcher Intensitätslücken für den menschlichen Beobachter vorgeschlagen werden, eine Aufgabe, die direkt mit der Kontrasterkennung verknüpft ist. Daher kann das Modell sequentiell angewandte Teilmodelle implementieren, die auf der Kontrastempfindlichkeitsfunktion (CSF) basieren.A method according to the invention can be used to propose a model for predicting the visibility of such intensity gaps for the human observer, a task which is directly linked to contrast detection. Therefore, the model can implement sequentially applied sub-models based on the contrast sensitivity function (CSF).

Die Erkennung von Objekten oder Flecken in einer von Scheinwerfern beleuchteten Szene ist stark mit der Kontrasterkennung korreliert. Für die Straßenbeleuchtung schlägt der CIE-Bericht 19/2 [1] vor, den Sichtbarkeitsgrad zu verwenden, der auf psychophysikalischen Daten basiert, die von Blackwell [2] zur Vorhersage der Erkennbarkeit eines Ziels in einer beleuchteten Umgebung gemessen wurden. Der Sichtbarkeitsgrad ist definiert als das Verhältnis zwischen dem Kontrast (zwischen Objekt und Hintergrund) und dem Schwellenkontrast. Sie ist zwar ein gutes Maß für die Erkennbarkeit von Objekten unter Laborbedingungen, aber für das im Rahmen dieser Anmeldung gelöste Problem nicht anwendbar, weil ein Fleck an einer unbekannten Position und nicht ein Objekt erkannt werden soll.The detection of objects or spots in a spotlight-lit scene is highly correlated with contrast detection. For street lighting, CIE Report 19/2 [1] proposes using the visibility grade based on psychophysical data measured by Blackwell [2] to predict the detectability of a target in an illuminated environment. The degree of visibility is defined as the ratio between the contrast (between object and background) and the threshold contrast. Although it is a good measure of the detectability of objects under laboratory conditions, but not applicable to the problem solved within the framework of this application, because a spot at an unknown position and not an object is to be recognized.

Blakemore und Campbell [3] postulierten, dass frühe visuelle Verarbeitungsmechanismen durch überlappende Kanäle modelliert werden können, die für unterschiedliche Ortsfrequenzen empfindlich sind. Die Autoren führten den Kehrwert des Schwellenkontrastes ein, der als Kontrastempfindlichkeitsfunktion (Contrast Sensitivity Function beziehungsweise CSF) bezeichnet wird. Die Kontrastempfindlichkeitsfunktion wird gemessen, indem dem Betrachter Bilder mit Sinusgittern gezeigt werden, weil die Frequenz dieser Testmuster sehr genau eingestellt werden kann.Blakemore and Campbell [3] postulated that early visual processing mechanisms can be modeled by overlapping channels sensitive to different spatial frequencies. The authors introduced the reciprocal of threshold contrast, called the Contrast Sensitivity Function (CSF). The contrast sensitivity function is measured by showing the viewer images with sine gratings because the frequency of these test patterns can be tuned very precisely.

Die Kontrastempfindlichkeitsfunktion wird typischerweise in einem Diagramm dargestellt, das die Kontrastempfindlichkeit über der Ortsfrequenz in Zyklen pro Grad (cyc/deg) angibt. Die Empfindlichkeit ändert sich auch mit der Leuchtdichte. Bei niedrigeren Leuchtdichten nimmt die Empfindlichkeit ab und die maximale Empfindlichkeit verschiebt sich zu kleineren Frequenzen (siehe 2). Da das menschliche Sehsystem sehr komplex ist und auch heute noch nicht vollständig verstanden ist, kann die Kontrastempfindlichkeitsfunktion nur ein vereinfachtes Modell sein, das auf bestimmte Einschränkungen reduziert ist. Nichtsdestotrotz wurde es erfolgreich für verschiedene Anwendungen eingesetzt, wie beispielsweise Qualitätsmessungen für Bildkomprimierungsalgorithmen [4] oder die Beurteilung des Sehvermögens von Patienten nach einer Augenoperation [5].The contrast sensitivity function is typically presented in a graph of contrast sensitivity versus spatial frequency in cycles per degree (cyc/deg). Sensitivity also changes with luminance. At lower luminances, the sensitivity decreases and the maximum sensitivity shifts to lower frequencies (see 2 ). Since the human visual system is very complex and not fully understood even today, the contrast sensitivity function can only be a simplified model reduced to certain limitations. Nevertheless, it has been used successfully for various applications, such as quality measurements for image compression algorithms [4] or assessing the vision of patients after eye surgery [5].

Joulan et al. [6] sind die ersten, die die Kontrastempfindlichkeitsfunktion in einem Kontext der Automobilbeleuchtung zur Vorhersage der Sichtbarkeit von Objekten, die von einem Scheinwerfer beleuchtet werden, verwenden. Sie schlagen vor, einen Multiskalen-Raumfilter auf Leuchtdichtebilder anzuwenden, der die einfache Kontrastwahrnehmung des menschlichen Sehens simuliert. Der Filter besteht aus einer gewichteten Summe von Differential of Gaussians (DoG). Die Gewichte werden so angepasst, dass der resultierende Filter der von Barten [7] entwickelten Kontrastempfindlichkeitsfunktion entspricht. Barten betont jedoch, dass sein CSF-Modell nur für das photopische Sehen gültig ist. Nachtfahrten hingegen liefern Szenarien, die im mesopischen Bereich liegen.Joulan et al. [6] are the first to use the contrast sensitivity function in an automotive lighting context to predict the visibility of objects illuminated by a headlight. They propose to apply a multiscale spatial filter to luminance images that simulates the simple contrast perception of human vision. The filter consists of a weighted sum of Differential of Gaussians (DoG). The weights are adjusted such that the resulting filter conforms to the contrast sensitivity function developed by Barten [7]. However, Barten emphasizes that his CSF model is only valid for photopic vision. Night drives, on the other hand, deliver scenarios that are in the mesopic range.

Bei dem Beispiel des erfindungsgemäßen Verfahrens wird ein Ansatz verwendet, der die Effekte des optischen Systems des Auges (optische Kontrastempfindlichkeitsfunktion) und die neuronale Verarbeitung des Netzhautbildes (neuronale Kontrastempfindlichkeitsfunktion) aufspaltet. Die optische Kontrastempfindlichkeitsfunktion beinhaltet Effekte wie die durch Streulicht verursachte Blendung. Die neuronale Kontrastempfindlichkeitsfunktion simuliert die rezeptiven Felder der frühen Stadien des menschlichen visuellen Cortex. Ein dritter Teil, der die Schwellenwert-Kontrastempfindlichkeitsfunktion induziert, schließt das Modell ab und ermöglicht die Vorhersage der Sichtbarkeit eines Kontrastes. Die gewählte Schwellenwert-Kontrastempfindlichkeitsfunktion ist für mesopisches Sehen gültig.In the example of the method according to the invention, an approach is used which separates the effects of the optical system of the eye (optical contrast sensitivity function) and the neural processing of the retinal image (neural contrast sensitivity function). The optical contrast sensitivity function includes effects such as glare caused by stray light. The neural contrast sensitivity function simulates the receptive fields of the early stages of the human visual cortex. A third part, inducing the threshold contrast sensitivity function, completes the model and allows the visibility of a contrast to be predicted. The selected threshold contrast sensitivity function is valid for mesopic vision.

Das beschriebene Beispiel eines erfindungsgemäßen Verfahrens kann ein Modell mit einer sinnvollen Anzahl von Parametern sein. Dafür können die folgenden Randbedingungen berücksichtigt werden:

  • - Das Modell ist nur für die foveale Sicht gültig. Dies schließt Winkel von -2°α≤2° ein [8]. Das bedeutet auch, dass Reize nicht in der Peripherie erkannt werden müssen, bevor sie fokussiert werden.
  • - Die Kontrastempfindlichkeit ist auch abhängig von der Präsentationszeit des visuellen Reizes [9]. Unterhalb von 4 s [10] Betrachtungszeit ist die Kontrastempfindlichkeit reduziert. Hier werden nur statische Szenarien betrachtet und den Beobachtern wird mehr als 4 s Beobachtungszeit für die Stimuli gegeben. Daher kann die Zeitabhängigkeit der Kontrastempfindlichkeit vernachlässigt werden.
  • - Das Modell ist in einem ersten Schritt für achromatische Lichtmuster ausgelegt.
  • - Die Beobachtung wird immer bei binokularer Betrachtung des Reizes betrachtet.
  • - Bei der Betrachtung von Kontrasten mit einer bestimmten Frequenz für die Dauer von ca. 1 Minute tritt eine Kontrastadaption auf [3], die die Kontrastempfindlichkeit für den adaptierten Frequenzbereich reduziert. Dieser Effekt wird im Modell nicht berücksichtigt. Es wird angenommen, dass der Beobachter nur ca. 30 s Zeit hat, die Reize zu betrachten.
  • - Eine besondere Aufmerksamkeit des Beobachters auf bestimmte Regionen führt zu höheren Kontrastempfindlichkeiten [11]. Dieser Effekt wird nicht berücksichtigt.
The described example of a method according to the invention can be a model with a reasonable number of parameters. The following boundary conditions can be taken into account for this:
  • - The model is only valid for the foveal view. This includes angles of -2°α≤2° [8]. This also means that stimuli do not have to be detected in the periphery before they are focused.
  • - The contrast sensitivity also depends on the presentation time of the visual stimulus [9]. Contrast sensitivity is reduced below 4 s [10] viewing time. Here only static scenarios are considered and the observers are given more than 4 s observation time for the stimuli. Therefore, the time dependence of the contrast sensitivity can be neglected.
  • - In a first step, the model is designed for achromatic light patterns.
  • - The observation is always viewed with binocular observation of the stimulus.
  • - When viewing contrasts with a certain frequency for a period of approx. 1 minute, contrast adaptation occurs [3], which reduces the contrast sensitivity for the adapted frequency range. This effect is not considered in the model. It is assumed that the observer only has about 30 s to look at the stimuli.
  • - If the observer pays special attention to certain regions, this leads to higher contrast sensitivities [11]. This effect is not taken into account.

Es besteht durchaus die Möglichkeit, für das Modell andere Randbedingungen zu wählen.It is entirely possible to choose other boundary conditions for the model.

Das Modell ist für digitale Bilder 1 als Input ausgelegt, die Leuchtdichteverteilungen beziehungsweise Leuchtdichtebildern entsprechen. Das digitale Bild 1 wird gemäß dem Beispiel eines erfindungsgemäßen Verfahrens mit einem Algorithmus verändert, der Verarbeitungsschritte des menschlichen visuellen Systems simuliert. Das Modell weist folgende Teilmodelle beziehungsweise Verfahrensschritte auf, die nacheinander angewendet werden (siehe 1):

  1. 1. Eine optische Kontrastempfindlichkeitsfunktion 2, die die Abbildungsfehler durch die Optik des menschlichen Auges simuliert. Dazu gehören beispielsweise Effekte wie Blendung, die durch Streuung am Augenmedium erfolgt. Im hier behandelten Beispiel ist das Modell von Watson implementiert [12]. Der Algorithmus simuliert somit in einem ersten Schritt die Veränderung eines Bildes durch den optischen Aufbau eines menschlichen Auges.
  2. 2. Eine neuronalen Kontrastempfindlichkeitsfunktion 3, welche die Kontrasterkennungsmechanismen in der menschlichen Netzhaut simuliert. Es handelt sich dabei insbesondere um eine starke Vereinfachung der heute bekannten Prozesse, die im Gehirn ablaufen. Die von Peli [13] entworfene CSF wird im hier behandelten Beispiel für die Anwendung gewählt. Der Algorithmus simuliert somit in einem zweiten Schritt die Verarbeitung einer Bildinformation zu einer Kontrastinformation durch das menschliche Gehirn.
  3. 3. Eine Schwellenwert-Kontrastempfindlichkeitsfunktion 4, mit der die Ergebnisse verglichen werden. Dieses Modell dient zur Bestimmung der Schwelle, anhand welcher entschieden wird, welche Elemente noch sichtbar sind und welche Elemente nicht. Die von Wuerger et al. [14] entwickelte Kontrastempfindlichkeitsfunktion wird im hier behandelten Beispiel als am besten geeignet für die gewünschte Anwendung ausgewählt. Sie ist für einen großen Bereich von Leuchtdichten ausgelegt und somit für mesopisches Sehen gültig. Der Algorithmus bestimmt somit in einem dritten Schritt eine Sichtbarkeits-Schwelle.
The model is designed for digital images 1 as input, which correspond to luminance distributions or luminance images. According to the example of a method according to the invention, the digital image 1 is modified with an algorithm that simulates processing steps of the human visual system. The model has the following sub-models or procedural steps, which are applied one after the other (see 1 ):
  1. 1. An optical contrast sensitivity function 2 that simulates the aberrations caused by the optics of the human eye. These include, for example, effects such as glare, which is caused by scattering on the eye medium. In the example discussed here, Watson's model is implemented [12]. In a first step, the algorithm thus simulates the change in an image caused by the optical structure of the human eye.
  2. 2. A neural contrast sensitivity function 3 that simulates the contrast detection mechanisms in the human retina. In particular, this is a strong simplification of the processes that are known today that take place in the brain. The CSF designed by Peli [13] is chosen for the application in the example discussed here. In a second step, the algorithm thus simulates the processing of image information into contrast information by the human brain.
  3. 3. A threshold contrast sensitivity function 4 against which the results are compared. This model is used to determine the threshold that is used to decide which elements are still visible and which elements are not. The Wuerger et al. [14] developed contrast sensitivity function is selected in the example discussed here as the most suitable for the desired application. It is designed for a large range of luminance and is therefore valid for mesopic vision. In a third step, the algorithm thus determines a visibility threshold.

Ein Blockdiagramm dieses Modells ist in 1 dargestellt. Das digitale Bild 1 wird so verändert, dass das veränderte Bild 5 eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind. Jedes Teilmodell wird in den folgenden Abschnitten näher erläutert.A block diagram of this model is in 1 shown. The digital image 1 is changed in such a way that the changed image 5 is a reconstruction of the luminance distribution, which at least essentially only contains the elements or parts of the luminance distribution that can be perceived by a human being. Each submodel is explained in more detail in the following sections.

Die optische Kontrastempfindlichkeitsfunktion 2 beschreibt die Aberration des Bildes aufgrund von Effekten, die durch die Medien des Auges verursacht werden. Sie kann verwendet werden, um das resultierende Netzhautbild für einen Stimulus zu berechnen, der einem menschlichen Betrachter gezeigt wird [12]. Durch die Einbeziehung der optischen Kontrastempfindlichkeitsfunktion 2 in das Modell werden Effekte wie die Blendung berücksichtigt, die einen großen Einfluss auf die Gesamt-Kontrastempfindlichkeitsfunktion haben können.The optical contrast sensitivity function 2 describes the aberration of the image due to effects caused by the media of the eye. It can be used to compute the resulting retinal image for a stimulus presented to a human viewer [12]. Including the optical contrast sensitivity function 2 in the model accounts for effects such as glare, which can have a large impact on the overall contrast sensitivity function.

Das hier implementierte Modell wurde von Watson [12] entwickelt. Die Pupillengröße, das Alter des Betrachters sowie die Augenfarbe beeinflussen die Aberration und werden daher als Eingabeparameter für das Modell berücksichtigt.The model implemented here was developed by Watson [12]. The pupil size, the age of the viewer and the eye color influence the aberration and are therefore considered as input parameters for the model.

Watson verwendete zur Entwicklung des Modells die Daten einer großen Anzahl von Wellenfrontaberrationsmessungen. Zur Anpassung an die gemessenen Aberrationen wurden Zernike-Polynome bis zur 35. Ordnung eingesetzt [12]. Aus den Ergebnissen berechnete er eine mittlere radialsymmetrische reelle Modulationsübertragungsfunktion und approximierte eine Funktion, die am besten zu den Daten passt. Zusätzlich wird der Effekt des Streulichts einbezogen, der die Kontraste reduziert. Watson verwendet die von Ijspeert et al. 1993 [15] gefundene Formel, um den Einfluss des Streulichts mit einzubeziehen.Watson used data from a large number of wavefront aberration measurements to develop the model. To adapt to the measured aberrations, Zernike polynomials up to the 35th order were used [12]. From the results, he calculated a mean radially symmetric real modulation transfer function and approximated a function that best fits the data. In addition, the effect of the scattered light is included, which reduces the contrasts. Watson uses the Ijspeert et al. Formula found in 1993 [15] to include the influence of scattered light.

Wie in [12] angegeben, kommt Watsons Modell zu dem Schluss: C S F ( r , d ) = [ 1 + ( r u 1 ( d ) ) 2 ] 0.62 D ( r , d , λ ) ( 1 S ( a , p ) )

Figure DE102022101854A1_0001
mit r = u 2 + v 2 ,
Figure DE102022101854A1_0002
u ist die horizontale Ortsfrequenz und v die vertikale Ortsfrequenz. u1(d) ist ein Polynom-Fit, der die berechnete Kontrastempfindlichkeitsfunktion an unterschiedliche Pupillendurchmesser d anpasst. D berücksichtigt den rein beugungsbegrenzten Teil des Kontrastempfindlichkeitsfunktion. Er wird für weißes Licht mit einer Mittenwellenlänge von λ = 555nm berechnet.As indicated in [12], Watson's model concludes: C S f ( right , i.e ) = [ 1 + ( right and 1 ( i.e ) ) 2 ] 0.62 D ( right , i.e , λ ) ( 1 S ( a , p ) )
Figure DE102022101854A1_0001
with right = and 2 + v 2 ,
Figure DE102022101854A1_0002
u is the horizontal spatial frequency and v is the vertical spatial frequency. u 1 (d) is a polynomial fit that fits the calculated contrast sensitivity function to different pupil diameters d. D takes into account the purely diffraction-limited part of the contrast sensitivity function. It is calculated for white light with a center wavelength of λ = 555nm.

S berücksichtigt den Effekt des Streulichts. Er ist abhängig vom Pigmentierungsfaktor p und dem Alter α des Beobachters, sowie dem vorgegebenen Referenzalter von 70 Jahren. Die Gleichungen für D, u1(d) und S(a,p) finden sich in der Veröffentlichung von Watson ([12], Gleichungen (1), (4), (6)).S takes into account the effect of stray light. It depends on the pigmentation factor p and the age α of the observer, as well as the given reference age of 70 years. The equations for D, u 1 (d) and S(a,p) can be found in the publication by Watson ([12], equations (1), (4), (6)).

Schließlich wird der Pupillendurchmesser wie in Watson et al. [16] angegeben berechnet. Dieses Modell ist eine Erweiterung des von Stanley und Davies [17] entworfenen Modells und beinhaltet Alterungseffekte sowie eine Unterscheidung zwischen binokularer und monokularer Sicht. Das hier vorgeschlagene Modell wird für binokulare Sicht betrachtet. Daraus ergibt sich die folgende Gleichung für die Berechnung des Pupillendurchmessers: d SD ( L , q ) = 7.75 5.75 ( ( L q 846 ) 0.41 ( L q 846 ) 0.41 + 2 )

Figure DE102022101854A1_0003
Finally, as described in Watson et al. [16] calculated. This model is an extension of the model designed by Stanley and Davies [17] and includes aging effects and a distinction between binocular and monocular vision. The model proposed here is considered for binocular vision. This results in the following equation for calculating the pupil diameter: i.e SD ( L , q ) = 7.75 5.75 ( ( L q 846 ) 0.41 ( L q 846 ) 0.41 + 2 )
Figure DE102022101854A1_0003

Der Dynamikbereich der Pupille wird mit dem Alter reduziert. Dies wird in der Gleichung durch Hinzufügen eines zusätzlichen Terms berücksichtigt: d ( L , q , a ) = d S D ( L , q ) + ( a a r e f ) ( 0.02132 0.02132 0.009562 d S D ( L , q ) )

Figure DE102022101854A1_0004
L ist die mittlere Leuchtdichte des Sichtfeldes (fov), q die Fläche des fov und a das Alter des Betrachters. Das Referenzalter aref ist mit 28,58 Jahren angegeben.The dynamic range of the pupil is reduced with age. This is accounted for in the equation by adding an extra term: i.e ( L , q , a ) = i.e S D ( L , q ) + ( a a right e f ) ( 0.02132 0.02132 0.009562 i.e S D ( L , q ) )
Figure DE102022101854A1_0004
L is the mean luminance of the field of view (fov), q is the area of the fov, and a is the age of the viewer. The reference age a ref is given as 28.58 years.

Die implementierte neuronale Kontrastempfindlichkeitsfunktion 3 beziehungsweise neuronale Modulationsübertragungsfunktion wurde von Peli [13] entwickelt. Sie wird ursprünglich auf natürliche Bilder beziehungsweise komplexe Szenen angewendet und ermöglicht die Vorhersage, ob kleine Details im Bild für den menschlichen Beobachter sichtbar sind.The implemented neural contrast sensitivity function 3 or neural modulation transfer function was developed by Peli [13]. It is originally applied to natural images or complex scenes and allows the prediction of whether small details in the image are visible to the human observer.

Das Bild wird mit verschiedenen Cosinus-Log-Bandpassfiltern gefaltet, die jeweils unterschiedliche Mittenfrequenzen und eine Bandbreite von einer Oktave haben. Die Filter im Ortsfrequenzbereich werden berechnet zu G k ( r ) = 0.5 ( 1 + cos ( π log 2 r π k ) )

Figure DE102022101854A1_0005
The image is convolved with various cosine-log bandpass filters, each with different center frequencies and a bandwidth of one octave. The filters in the spatial frequency domain are calculated to G k ( right ) = 0.5 ( 1 + cos ( π log 2 right π k ) )
Figure DE102022101854A1_0005

Jeder Filter hat eine Mittenfrequenz von 2k, wobei k ein ganzzahliger Wert ist.Each filter has a center frequency of 2 k , where k is an integer value.

Die hier entworfenen Filter sind den Gabor-Filtern sehr ähnlich, mit dem Unterschied, dass die Summe der Filter gleich Eins ist [13]. Hubel und Wiesel [18] finden, dass rezeptive Felder eine große Ähnlichkeit zu Gabor-Filterfunktionen haben. Das Modell ist daher ein vereinfachter Ansatz zur Simulation früher Stadien der visuellen Verarbeitung, weil es Effekte wie die Orientierungsselektivität, wie sie von de Valois et al. [19] entdeckt wurde, nicht berücksichtigt.The filters designed here are very similar to the Gabor filters, with the difference that the sum of the filters is equal to one [13]. Hubel and Wiesel [18] find that receptive fields are very similar to Gabor filter functions. The model is therefore a simplified approach to simulating early stages of visual processing because it includes effects such as orientational selectivity as suggested by de Valois et al. [19] was discovered is not taken into account.

Das Bild wird mit jedem Filter separat gefaltet, was k Ergebnisse liefert. a k ( x , y ) = ƒ ( x , y ) g k ( x , y )

Figure DE102022101854A1_0006
The image is convolved with each filter separately, giving k results. a k ( x , y ) = ƒ ( x , y ) G k ( x , y )
Figure DE102022101854A1_0006

Dabei ist f(x,y) der Bildwert an der horizontalen Pixelposition x und der vertikalen Pixelposition y, gk(x,y) ist die k-te Bandpassfilterfunktion im räumlichen Bereich und * stellt den Faltungsoperator dar. Für das beispielhaft erläuterte Modell wird das Bild vor der Filterung in jeder Richtung um die Hälfte der Filtergröße vergrößert. Die Werte an den Rändern des Bildes werden wiederholt, um eine künstliche Kantenbildung zu vermeiden. Die Auflösungsinformation des Bildes wird durch dieses Verfahren nicht verändert und nach der Filterung wird die Bildgröße wieder auf die Originalgröße reduziert. Dieses sogenannte Padding vermeidet Ringing-Artefakte, die durch die diskrete Fourier-Transformation entstehen und ist ein gängiges Verfahren bei der Multiplikation von Filtern im Frequenzbereich [20].where f(x,y) is the image value at horizontal pixel position x and vertical pixel position y, gk(x,y) is the kth bandpass filter function in the spatial domain, and * represents the convolution operator. For the model exemplified, enlarges the image by half the filter size in each direction before filtering. The values at the edges of the image are repeated to avoid artificial edging. The resolution information of the image is not changed by this process and after filtering the image size is reduced back to the original size. This so-called padding avoids ringing artefacts caused by the discrete Fourier transformation and is a common method when multiplying filters in the frequency domain [20].

Da das beispielhaft erläuterte Modell für foveales Sehen ausgelegt ist, ist das Blickfeld auf ± 2 Grad begrenzt [8]. Die Fläche, die benötigt wird, um einen vollen Zyklus mit der kleinsten Frequenz darzustellen, sollte diesen Bereich nicht überschreiten. Unter Einhaltung der Konstruktionsregel des Peli-Modells, dass die Mittenfrequenz 2n beträgt, wird die kleinste Frequenz ƒc1= 2-2 cyc/deg gewählt. Die größte für den verwendeten Aufbau anwendbare Frequenz ist durch die Nyquist-Frequenz begrenzt. Da die hier gezeigten Leuchtdichtebilder eine Auflösung von ~ 75 pix/deg haben, ist die maximale Frequenz, die durch Fourier-Transformation erreicht werden kann, mit 35 pix/deg gegeben. Daraus ergibt sich eine maximale Mittenfrequenz von ƒc8 = 32 zyk/deg. Die resultierenden Frequenzen, die explizit für die Anwendung des hier vorgeschlagenen Modells gewählt wurden, sind somit gegeben zu: 0,5, 1, 2, 4, 8, 16 und 32 cyc/deg. Since the model explained as an example is designed for foveal vision, the field of vision is limited to ± 2 degrees [8]. The area required to represent a full cycle at the lowest frequency should not exceed this range. Adhering to the Peli model design rule that the center frequency is 2 n , the smallest frequency ƒ c1 = 2 -2 cyc/deg is selected. The maximum applicable frequency for the construction used is limited by the Nyquist frequency. Since the luminance images shown here have a resolution of ~ 75 pix/deg, the maximum frequency that can be achieved by Fourier transformation is 35 pix/deg. This results in a maximum center frequency of ƒ c8 = 32 cyc/deg. The resulting frequencies, which were explicitly chosen for the application of the model proposed here, are thus given as: 0.5, 1, 2, 4, 8, 16 and 32 cyc/deg.

Für photopische Beleuchtungsumgebungen ist bekannt, dass ein gesunder und junger menschlicher Beobachter eine maximale Auflösung von 0,5' hat [21]. Dies entspricht einer Auflösung von 120 Zyklen/Grad. Im Gegensatz dazu ist die höchste Auflösung des Modells auf nur ein Viertel dieses Wertes eingestellt.For photopic lighting environments, a healthy and young human observer is known to have a maximum resolution of 0.5' [21]. This corresponds to a resolution of 120 cycles/degree. In contrast, the highest resolution of the model is set to only a quarter of this value.

2 zeigt die mit dem beispielhaft erläuterten Modell berechnete Kontrastempfindlichkeit für verschiedene Leuchtdichten. Vergleicht man die maximale Kontrastempfindlichkeit bei 200 cd/m2 mit der Kontrastempfindlichkeit von 0,2 cd/m2, so sinkt die maximale Empfindlichkeit auf etwa ein Viertel des Wertes. Somit dürfte die gewählte Auflösung für das Modell ausreichend sein. 2 shows the contrast sensitivity calculated with the model explained as an example for different luminance levels. If one compares the maximum contrast sensitivity at 200 cd/m 2 with the contrast sensitivity of 0.2 cd/m 2 , the maximum sensitivity drops to around a quarter of the value. Thus, the selected resolution should be sufficient for the model.

Um die neuronalen Adaptationsprozesse zu berücksichtigen, berechnet Peli den Kontrast für jeden Kanal, indem die gefilterten Bilder durch einen Adaptationsleuchtdichtewert dividiert werden. Der Wert wird berechnet, indem nur die Frequenzen im Bild beibehalten werden, die unterhalb des Durchlassbereichs des Bandpassfilters liegen. Das bandpassgefilterte Bild wird dann durch das Ergebnis geteilt: c k ( x , y ) = a k ( x , y ) ƒ ( x , y ) l k ( x , y )

Figure DE102022101854A1_0007
To account for the neural adaptation processes, Peli calculates the contrast for each channel by dividing the filtered images by an adaptation luminance value. The value is calculated by keeping only the frequencies in the image that are below the passband of the bandpass filter. The bandpass filtered image is then divided by the result: c k ( x , y ) = a k ( x , y ) ƒ ( x , y ) l k ( x , y )
Figure DE102022101854A1_0007

Dabei ist lk(x,y) der Tiefpassfilter im räumlichen Bereich, der mit dem Bild gefaltet wird.where l k (x,y) is the low-pass filter in the spatial domain that is convolved with the image.

Der berechnete Kontrast wird für jedes Pixel in jedem Kontrastbild mit dem Schwellenkontrast verglichen. Wenn der Kontrast für die gegebene Mittenfrequenz des Bandpasses kleiner als ein gegebener Schwellenwert ist, wird die Information im bandpassgefilterten Bild an diesem Pixel verworfen, indem das Pixel auf einen Wert von Null gesetzt wird. a k ( x , y ) { ƒ ( x , y ) g ( x , y ) , i ƒ   c k ( x , y ) c tresh   0, e l s e

Figure DE102022101854A1_0008
The calculated contrast is compared to the threshold contrast for each pixel in each contrast image. If the contrast for the given bandpass center frequency is less than a given threshold, the information in the bandpass filtered image at that pixel is discarded by setting the pixel to a value of zero. a k ( x , y ) { ƒ ( x , y ) G ( x , y ) , i ƒ c k ( x , y ) c tresh 0, e l s e
Figure DE102022101854A1_0008

Peli verwendet den gemessenen CSF jedes einzelnen Beobachters als Schwellenwert [22]. Nach der Verarbeitung jedes bandpassgefilterten Bildes auf diese Weise wird das resultierende Bild durch eine Summierung aller gefilterten und schwellenwertgeregelten Bilder, einschließlich der nieder- und hochfrequenten Residuen, rekonstruiert. ƒ rec ( x , y ) = l 0 ( x , y ) + k = 1 n 1 a k ( x , y ) + h n ( x , y )

Figure DE102022101854A1_0009
Peli uses the measured CSF of each individual observer as a threshold [22]. After processing each bandpass filtered image in this way, the resulting image is reconstructed by a summation of all filtered and thresholded images, including the low and high frequency residuals. ƒ rec ( x , y ) = l 0 ( x , y ) + k = 1 n 1 a k ( x , y ) + H n ( x , y )
Figure DE102022101854A1_0009

Dabei ist l0 das Tiefpass-Residuum und hn das Hochpass-Residuum.where l 0 is the low-pass residual and h n is the high-pass residual.

Auch wenn die Ergebnisse von Peli eine gute Übereinstimmung mit seiner Studie [23] haben, ist dieses Verfahren nicht direkt auf das hier vorgeschlagene Modell anwendbar. Das Ziel ist es, einen allgemeinen Ansatz zu entwickeln, nicht einen, der auf Individuen zugeschnitten ist. Aus diesem Grund wird zur Berechnung des Schwellenwerts ein Modell verwendet, das einen mittleren Kontrastempfindlichkeitsfunktion für gesunde Probanden vorhersagt.Although Peli's results agree well with his study [23], this method is not directly applicable to the model proposed here. The goal is to develop a general approach, not one tailored to individuals. For this reason, a model that predicts a mean contrast sensitivity function for healthy subjects is used to calculate the threshold.

Die Umgebung, in der Scheinwerfer typischerweise eingesetzt werden, weist Leuchtdichten unter 3 cd/m2 auf, wo der Übergang zwischen dem photopischen und dem mesopischen Sehen stattfindet [24]. Daher ist es wichtig, eine Kontrastempfindlichkeitsfunktion zu wählen, die für den Bereich des mesopischen Sehens gültig ist. Die für dieses Modell als Schwellenfunktion gewählte Kontrastempfindlichkeitsfunktion wurde für Adaptationsleuchtdichten zwischen 0,02 cd/m2 und 7000 cd/m2 entwickelt [14]. Sie enthält auch einen separierbaren Teil, der die chromatische Kontrastempfindlichkeitsfunktion beschreibt. Dies ermöglicht die mögliche Erweiterung des Modells in einem späteren Schritt, ohne eine andere Schwellwertfunktion implementieren zu müssen. The environment in which headlamps are typically used has luminance levels below 3 cd/m 2 , where the transition between photopic and mesopic vision takes place [24]. It is therefore important to choose a contrast sensitivity function that is valid for the range of mesopic vision. The contrast sensitivity function selected as the threshold function for this model was developed for adaptation luminances between 0.02 cd/m 2 and 7000 cd/m 2 [14]. It also contains a separable part describing the chromatic contrast sensitivity function. This allows the possible extension of the model in a later step without having to implement another threshold function.

Wuerger et al. entwickeln das Modell als eine kontinuierliche Funktion, die von der umgebenden Leuchtdichte und Frequenz abhängt und die Berechnung für jede durchschnittliche Leuchtdichte oder Frequenz ermöglicht, die in der gemessenen Leuchtdichteverteilung gefunden wird. Sie validieren das Modell mit eigenen Messdaten sowie mit einem angemessenen Vergleich zu anderen veröffentlichten Datensätzen. Die Autoren schlagen eine Erweiterung des Modells vor, die die Abhängigkeit der Kontrastempfindlichkeitsfunktion von der dargestellten Zyklenzahl beinhaltet. Diese Erweiterung wird hier nicht angewendet, da die Autoren angeben, dass die Datenmenge zur Verifizierung der Erweiterung nicht groß genug ist. Der resultierende achromatische logarithmische Kontrastempfindlichkeitsfunktion wird also wie folgt berechnet: S log10 ( r , r max , b ) = log 10 ( s max ) ( log 10 ( r ) log 10 ( r max ) 0.5 2 b ) 2

Figure DE102022101854A1_0010
Wuerger et al. develop the model as a continuous function dependent on the surrounding luminance and frequency, allowing calculation for any average luminance or frequency found in the measured luminance distribution. They validate the model with their own measurement data and with an appropriate comparison to other published data sets. The authors propose an extension of the model that includes the dependence of the contrast sensitivity function on the number of cycles represented. This extension is not applied here because the authors state that the data set to verify the extension is not large enough. So the resulting achromatic logarithmic contrast sensitivity function is calculated as follows: S log10 ( right , right Max , b ) = log 10 ( s Max ) ( log 10 ( right ) log 10 ( right Max ) 0.5 2 b ) 2
Figure DE102022101854A1_0010

Dabei ist r die Radialfrequenz, wie sie in den vorherigen Abschnitten verwendet wurde, rmax die Frequenz, bei der die Kontrastempfindlichkeitsfunktion ihren Maximalwert hat und Smax die maximale Empfindlichkeit beim Wert rmax. Die Berechnungen der Werte für rmax und Smax finden sich in Wuerger et al, [14], Gleichungen (16a,b).where r is the radial frequency as used in the previous sections, r max is the frequency at which the contrast sensitivity function has its maximum value, and S max is the maximum sensitivity at the value r max . The calculations of the values for r max and S max can be found in Wuerger et al, [14], equations (16a,b).

Der zum Vergleich herangezogene Schwellenkontrast kann dann berechnet werden durch cthresh = 10Slog10 .The threshold contrast used for comparison can then be calculated by c thresh = 10 S log10 .

Die für die Berechnung der Schwelle verwendete Leuchtdichte L ist die mittlere Leuchtdichte, die auch für die Berechnung des Kontrastes in (6) verwendet wird.The luminance L used to calculate the threshold is the mean luminance that is also used to calculate the contrast in (6).

Um die Anwendbarkeit des beispielhaft erläuterten Modells auf Scheinwerferlichtmuster zu testen, ist die Erzeugung einer großen Vielfalt von Lichtmustern notwendig. 3 zeigt einen beispielhaften Versuchsaufbau zur Aufnahme eines Bildes, das einer Leuchtdichteverteilung des von einem Scheinwerfer ausgehenden Lichts entspricht. In order to test the applicability of the model explained by way of example to headlight light patterns, it is necessary to generate a large variety of light patterns. 3 shows an example test setup for recording an image that corresponds to a luminance distribution of the light emanating from a headlight.

Eine Kamera 7 ist 2 m hinter einem Projektor 6 und 1,2 m über einer Straße 8 angebracht. Die Mitte des Projektorobjektivs befindet sich 0,64 m über der Straße. Kamera 7 und Projektor 6 sind somit in Positionen platziert, die der Position der Scheinwerfer und des Fahrers sehr ähnlich sind. Insbesondere kann von dem Projektor 6 eine Lichtverteilung 9 auf die Straße 8 projiziert werden, die der eines Scheinwerfers entsprechen kann.A camera 7 is mounted 2 m behind a projector 6 and 1.2 m above a road 8. The center of the projector lens is 0.64 m above the road. Camera 7 and projector 6 are thus placed in positions very similar to the position of the headlights and the driver. In particular, the projector 6 can project a light distribution 9 onto the road 8, which can correspond to that of a headlight.

Für beispielhafte Tests wird als Projektor 6 ein Hochleistungsprojektor vom Typ Barco W30 Flex verwendet, der geometrisch und bezüglich der Lichtstärke kalibriert ist (da er 8-Bit-Graustufenwerte als Eingangsdaten erhält). Der maximale Lichtstrom des Projektors 6 ist mit 30.000 Lumen angegeben. Bei einer Bildgröße von 1920 x 1200 Pixeln und einem entsprechenden Sichtfeld (fov) von ±15,03° in horizontaler Richtung und ±10,05° in vertikaler Richtung ergibt sich eine Auflösung des Projektors 6 von 0,017° vertikal und 0,016° horizontal. Der Projektor 6 befindet sich in einem Lichtkanal, der eine stabile, tageszeit- und wetterunabhängige Testumgebung ermöglicht.For exemplary tests, a high-performance Barco W30 Flex projector is used as projector 6, which is geometrically and luminous intensity calibrated (because it receives 8-bit gray scale values as input data). The maximum luminous flux of the projector 6 is specified as 30,000 lumens. With an image size of 1920 x 1200 pixels and a corresponding field of view (fov) of ±15.03° in the horizontal direction and ±10.05° in the vertical direction, the resolution of the projector 6 is 0.017° vertically and 0.016° horizontally. The projector 6 is located in a light channel that enables a stable test environment that is independent of the time of day and the weather.

Das Modell wird mit gemessenen Leuchtdichtebildern getestet. Als Kamera 7 dient dabei eine Leuchtdichtemesskamera vom Typ LMK5 Color, Techno Team, die unter Verwendung eines Objektivs mit einer Brennweite von 16 mm und einem Neutraldichtefilter mit einer Transmission von 7,93% die Leuchtdichtebilder erzeugt.The model is tested with measured luminance images. A luminance measuring camera of the type LMK5 Color, Techno Team, is used as camera 7, which produces the luminance images using a lens with a focal length of 16 mm and a neutral density filter with a transmission of 7.93%.

Um die Pixelpositionen in Winkelkoordinaten zu übersetzen, wird ein Punktraster verwendet. Der Mittelpunkt jedes Punktes hat einen Abstand von 0,5° in vertikaler und in horizontaler Richtung. Mit einem Bildverarbeitungsalgorithmus wird der Mittelpunkt der Punkte im Leuchtdichtebild in Pixelkoordinaten gemessen. In einem nächsten Schritt wird die Position mit dem entsprechenden Winkel verknüpft. Durch bilineare Interpolation zwischen den gemessenen Punkten erhält jedes Pixel im Bild eine Winkelkoordinate in Grad. Nachdem die Winkelpositionen des Projektors auf diese Weise bestimmt wurden, können die Winkelpositionen für das Kamerabild durch Kenntnis des Abstands zum Projektormittelpunkt berechnet werden.A grid of points is used to translate the pixel positions into angular coordinates. The center of each point is spaced 0.5° apart in the vertical and horizontal directions. An image processing algorithm is used to measure the center point of the points in the luminance image in pixel coordinates. In a next step, the position is linked to the corresponding angle. Bilinear interpolation between the measured points gives each pixel in the image an angular coordinate in degrees. After the angular positions of the projector have been determined in this way, the angular positions for the camera image can be calculated by knowing the distance to the center of the projector.

Das für den Test verwendete Lichtmuster wird mit Hilfe einer simulierten Lichtstärkeverteilung eines Scheinwerfermoduls erzeugt, das aus einer hochauflösenden, gepixelten Lichtquelle besteht. Die Simulation ermöglicht das Dimmen und vollständige Abschalten einzelner Pixel.The light pattern used for the test is generated using a simulated light intensity distribution of a headlight module, which consists of a high-resolution, pixelated light source. The simulation enables individual pixels to be dimmed and switched off completely.

Es werden drei verschiedene Szenarien untersucht:

  1. 1. Es wird ein dunkler Fleck auf einem gleichmäßig beleuchteten Hintergrund erzeugt, indem ausgewählte Pixel abgeschaltet werden. Die Größe des Flecks wird dann durch Abschalten benachbarter Pixel verändert. Es wird erwartet, dass sich die Sichtbarkeit mit der Größe des dunklen Flecks verbessert.
  2. 2. Ein heller Fleck wird auf dem gleichen Hintergrund erzeugt und die Größe des Flecks wird auf die gleiche Weise wie zuvor geändert. Es wird das gleiche prinzipielle Verhalten wie für den dunklen Fleck erwartet.
  3. 3. Bei dem letzten Szenario wird eine komplexe Szene einer typischen Landstraße mit stationärer Straßenbeleuchtung erzeugt. Die Auswirkung der lokalen Adaption auf die Auflösung wird getestet. Es wird erwartet, dass die Sehschärfe in dunkleren Bereichen abnimmt.
Three different scenarios are examined:
  1. 1. A dark spot is created on an evenly lit background by turning off selected pixels. The size of the spot is then changed by turning off adjacent pixels. Visibility is expected to improve with the size of the dark spot.
  2. 2. A bright spot is created on the same background and the spot is resized in the same way as before. The same principle behavior as for the dark spot is expected.
  3. 3. In the last scenario, a complex scene of a typical country road with stationary streetlights is created. The impact of local adaptation on resolution is tested. Visual acuity is expected to decrease in darker areas.

Die ersten beiden Szenarien werden zunächst auf eine in 3 nicht abgebildete weiße Leinwand projiziert, die sich in 8,4 m Entfernung zum Projektor 6 befindet. Dann wird die Leinwand entfernt und das gleiche Bild auf die Straße 8 projiziert. Für das dritte Szenario wird das Lichtmuster nur auf die Straße 8 projiziert. Für die gezeigten Szenarien wird das Alter des Beobachters auf 30 Jahre gesetzt, die Augenfarbe des Beobachters wird als braun angenommen.The first two scenarios are initially based on an in 3 projected white screen, not shown, which is 8.4 m away from the projector 6. Then the screen is removed and the same image is projected onto the street 8. For the third scenario, the light pattern is projected onto the road 8 only. For the scenarios shown, the observer's age is set to 30 years and the observer's eye color is assumed to be brown.

Bei dem ersten Szenario werden dunkle Flecken untersucht, die sich in ihrer Größe ändern. Spotgrößen mit einem Durchmesser von 0,2°, 0,3° und 0,4° werden durch unterschiedlich starkes Dimmen benachbarter Pixel der Lichtquelle erzeugt. Die gewählte Simulation ergibt eine Umgebungslichtstärke von 16770 cd, und eine Lichtstärke des Spots von 11690 cd. Die schematische Darstellung in 4 zeigt beispielhaft einige kleine dunkle Flecken 10 und zwei große dunkle Flecken 11.The first scenario examines dark spots that change in size. Spot sizes with a diameter of 0.2°, 0.3° and 0.4° are generated by dimming neighboring pixels of the light source to different extents. The selected simulation results in an ambient light intensity of 16770 cd and a spot light intensity of 11690 cd. The schematic representation in 4 shows an example of some small dark spots 10 and two large dark spots 11.

Die von der Kamera 7 aufgenommenen Leuchtdichtebilder werden mit Bandpassfiltern unterschiedlicher Mittenfrequenzen gefiltert. Dabei sprechen Bandpassfilter mit kleinen Mittenfrequenzen auf räumlich größere Elemente im Bild an und umgekehrt. Insbesondere sprechen Bandpassfilter mit 1, 2 und 4 cyc/deg am stärksten auf das Bild an.The luminance images recorded by the camera 7 are filtered using bandpass filters with different center frequencies. Bandpass filters with small center frequencies respond to spatially larger elements in the image and vice versa. In particular, bandpass filters with 1, 2 and 4 cyc/deg respond the most to the image.

Für die derart gefilterten Leuchtdichtebilder werden Kontraste und Schwellenkontraste berechnet. Da sich die Kontrastschwelle mit der Frequenz ändert, werden für jede Mittenfrequenz unterschiedliche Schwellenwerte berechnet. Bei einem Vergleich der Kontrastschwellen auf der Straße mit der Kontrastschwelle auf dem Bildschirm zeigt sich, dass sich die Kontrastschwellen mit der Leuchtdichte ändern. Dabei weisen dunklere Regionen einen deutlich höheren Schwellenwert auf.Contrasts and threshold contrasts are calculated for the luminance images filtered in this way. Because the contrast threshold changes with frequency, different thresholds are calculated for each center frequency. A comparison of the contrast thresholds on the road with the contrast threshold on the screen shows that the contrast thresholds change with the luminance. Darker regions have a significantly higher threshold value.

Je kleiner die Spotgröße ist, desto größer ist die Unschärfe zwischen Hintergrund und Bildschirm. Während ein Teil dieses Effekts auf den verringerten Kontrast durch Unschärfe benachbarter Pixel zurückzuführen ist, zeigt das Modell den Effekt dennoch, weil er in der Rekonstruktion größer ist als im Original.The smaller the spot size, the greater the blur between the background and the screen. While some of this effect is due to the reduced contrast caused by blurring of neighboring pixels, the model still shows the effect because it is larger in the reconstruction than in the original.

Ein beispielhaftes, mit einem erfindungsgemäßen Verfahren rekonstruiertes Bild für die Projektion auf die Straße ist in 5 ersichtlich. Es zeigt sich, dass für kleinere Spotgrößen die Sichtbarkeit reduziert wird, bis sie nicht mehr oder kaum noch sichtbar sind. Insbesondere sind die in 4 abgebildeten kleinen dunklen Flecken 10 in 5 nicht mehr sichtbar, wohingegen die großen Flecken 11 noch deutlich erkannt werden können. Diese Ergebnisse verdeutlichen, dass das Modell für den gewünschten Anwendungsbereich einsetzbar ist.An exemplary image reconstructed using a method according to the invention for projection onto the road is shown in 5 evident. It turns out that the visibility is reduced for smaller spot sizes until they are no longer or hardly visible. In particular, the in 4 pictured small dark spots 10 in 5 no longer visible, whereas the large spots 11 can still be clearly recognized. These results make it clear that the model can be used for the desired area of application.

Bei dem zweiten Szenario werden sich in ihrer Größe verändernde helle Flecken untersucht. Für die Bewertung der Erkennungsqualität von hellen Flecken auf einem gleichmäßig beleuchteten Hintergrund wird für die simulierte Lichtquelle die gleiche Umgebungslichtstärke wie in dem ersten Szenario verwendet. Die Pixel, die die Flecken erzeugen, werden auf einen niedrigeren Dimmwert (höhere Intensität) als die Umgebung gesetzt. Die Lichtstärke für den hellen Spot wird mit 21490 cd angegeben.In the second scenario, bright spots that change in size are examined. For the assessment of the recognition quality of bright spots on an evenly lit background, the same ambient light level as in the first scenario is used for the simulated light source. The pixels that create the spots are set to a lower dimming level (higher intensity) than the surrounding area. The light intensity for the bright spot is given as 21490 cd.

Die Untersuchung verdeutlicht, dass in den rekonstruierten Bildern im Vergleich zum Originalbild die hellen Flecken unschärfer und weniger sichtbar erscheinen. Dies entspricht der beobachtbaren Tatsache, dass ein heller Fleck schwieriger von der Umgebung zu unterscheiden war als ein dunkler Fleck gleicher Größe.The investigation makes it clear that the bright spots appear blurrier and less visible in the reconstructed images compared to the original image. This corresponds to the observable fact that a bright spot was more difficult to distinguish from its surroundings than a dark spot of the same size.

Bei dem dritten Szenario wird eine komplexe Szene untersucht, insbesondere eine komplexere Szene einer typischen städtischen Straße bei Nacht. Eine Abblendlichtverteilung beleuchtet die Straße in Anwesenheit einer stationären Straßenbeleuchtung.In the third scenario, a complex scene is examined, in particular a more complex scene of a typical urban street at night. A low-beam distribution illuminates the road in the presence of stationary streetlights.

Es zeigt sich, dass für Regionen im Bild mit niedrigen Leuchtdichten eine deutlich geringere Auflösung des rekonstruierten Bildes beobachtet wird als für Regionen mit höheren Leuchtdichten. Dies steht wiederum im Einklang mit dem Verhalten des menschlichen Sehsystems. In dunkler Umgebung ist die Sehschärfe des visuellen Systems reduziert.It can be seen that for regions in the image with low luminance, a significantly lower resolution of the reconstructed image is observed than for regions with higher luminance. Again, this is consistent with the behavior of the human visual system. In a dark environment, the visual acuity of the visual system is reduced.

Für alle drei Szenarien stimmt somit das qualitative Verhalten des Modells mit dem erwarteten Verhalten überein. Dies ist ein sehr guter Indikator für die Anwendbarkeit des Modells. Der Vorteil des Modells ist die allgemeine Anwendbarkeit für eine Vielzahl von Leuchtdichteverteilungen und Umgebungen, ohne dass eine Parameteranpassung notwendig ist. Durch die Verwendung der drei Teilmodelle werden Effekte wie physiologischen Blendung und globale sowie lokale Leuchtdichteadaptionseffekte bei der Kontrastberechnung berücksichtigt.The qualitative behavior of the model thus agrees with the expected behavior for all three scenarios. This is a very good indicator of the applicability of the model. The advantage of the model is its general applicability for a variety of luminance distributions and environments without the need for parameter adjustment. By using the three partial models, effects such as physiological glare and global as well as local luminance adaptation effects are taken into account in the contrast calculation.

Literaturverzeichnisbibliography

  1. [1] Commission Internationale de l'Eclairage, „An Analytic Model for Describing the Influence of Lighting Parameters upon Visual Performance“, CIE publication 19/2, Vienna, 1981.[1] Commission Internationale de l'Eclairage, "An Analytic Model for Describing the Influence of Lighting Parameters upon Visual Performance", CIE publication 19/2, Vienna, 1981.
  2. [2] H.R. Blackwell, „Contrast thresholds of the humane eye“, Journal of the Optical Society of America, 1946.[2] H.R. Blackwell, "Contrast thresholds of the humane eye", Journal of the Optical Society of America, 1946.
  3. [3] C. Blakemore, F. W. Campbell, „On the existence of neurones in the human visual system selectively sensitive to the orientation and size of retinal images“, Journal of Physiology, 203 (1), pp. 237-260, 1969[3] Blakemore C, Campbell FW, On the existence of neurones in the human visual system selectively sensitive to the orientation and size of retinal images, Journal of Physiology, 203 (1), pp. 237-260, 1969
  4. [4] M.J. Nadenau, J. Reichel, and M. Kunt, „Wavelet-based color image compression: exploiting the contrast sensitivity function.“, IEEE Transactions on image processing, 12.1, pp: 58-70, 2003[4] MJ Nadenau, J. Reichel, and M. Kunt, "Wavelet-based color image compression: exploiting the contrast sensitivity function.", IEEE Transactions on image processing, 12.1, pp: 58-70, 2003
  5. [5] N. Yamane, K. Miyata, T. Samejima, T. Hiraoka, T. Kiuchi, F. Okamoto, Y. Hirohara, T. Mihashi, and T. Oshika, „Ocular higher-order aberrations and contrast sensitivity after conventional laser in situ keratomileusis“, Investigative Ophthalmology & Visual Science, 45(11), pp.3986-3990, 2004.[5] Yamane N, Miyata K, Samejima T, Hiraoka T, Kiuchi T, Okamoto F, Hirohara Y, Mihashi T, and Oshika T Ocular higher-order aberrations and contrast sensitivity after conventional laser in situ keratomileusis”, Investigative Ophthalmology & Visual Science, 45(11), pp.3986-3990, 2004.
  6. [6] K. Joulan, N. Hautiere, and N. Bremond, „Contrast sensitivity function for road visibility estimation on digital images“, Proc. 27th session of the Commission Internationale de l'Eclairage, 2011[6] K Joulan, N Hautiere, and N Bremond, “Contrast sensitivity function for road visibility estimation on digital images”, Proc. 27th session of the Commission Internationale de l'Eclairage, 2011
  7. [7] P. G. J. Barten, „Contrast sensitivity of the human eye and its effects on image quality“, SPIE press, 1999[7] P.G.J. Barten, "Contrast sensitivity of the human eye and its effects on image quality", SPIE press, 1999
  8. [8] S. E. Palmer, Vision Science. Photons to Phenomenology, MIT Press, Cambridge, Massachusetts, 1999.[8] S.E. Palmer, Vision Science. Photons to Phenomenology, MIT Press, Cambridge, Massachusetts, 1999.
  9. [9] F. L. Van Nes, J. J. Koenderink, H. Nas, and M. A. Bouman, „Spatiotemporal Modulation Transfer in the Human Eye,“ Journal of the Optical Society of America A, 57, 1082-1088, 1967[9] Van Nes FL, Koenderink JJ, Nas H, and Bouman MA, "Spatiotemporal Modulation Transfer in the Human Eye," Journal of the Optical Society of America A, 57, 1082-1088, 1967
  10. [10] B. Hauser, H. Ochsner, and E. Zrenner. „Der „Blendvisus“-Teil 1: Physiologische Grundlagen der Visusänderung bei steigender Testfeldleuchtdichte.“ Klinische Monatsblätter für Augenheilkunde (200.02), pp. 105-109, 1992[10] B. Hauser, H. Ochsner, and E. Zrenner. "The "Blendvisus"-Part 1: Physiological basics of the change in vision with increasing test field luminance." Clinical monthly sheets for ophthalmology (200.02), pp. 105-109, 1992
  11. [11] N. V. K. Medathati, H. Neumann, G. S. Masson, and P. Kornprobst, „Bio-inspired computer vision: Towards a synergistic approach of artificial and biological vision“, Computer Vision and Image Understanding, vol. 150, pp. 1-30, 2016.[11] N.V.K. Medathati, H. Neumann, GS. Masson, and P. Kornprobst, "Bio-inspired computer vision: Towards a synergistic approach of artificial and biological vision", Computer Vision and Image Understanding, vol. 150, pp. 1-30, 2016.
  12. [12] A.B. Watson, „A formula for the mean human optical modulation transfer function as a function of pupil size.“ Journal of Vision, 13.6, 18-18, 2013[12] A.B. Watson, "A formula for the mean human optical modulation transfer function as a function of pupil size." Journal of Vision, 13.6, 18-18, 2013
  13. [13] E. Peli, „Contrast in complex images“. Journal of the Optical Society of America A, 7, 10, 2032-2040, 1990[13] E Peli, Contrast in complex images. Journal of the Optical Society of America A, 7, 10, 2032-2040, 1990
  14. [14] S. Wuerger, M. Ashraf, M. Kim, J. Martinovic, M. Pérez-Ortiz, and R. K. Mantiuk, „Spatio-chromatic contrast sensitivity under mesopic and photopic light levels“, Journal of Vision, 20(4), 2020[14] Wuerger S, Ashraf M, Kim M, Martinovic J, Pérez-Ortiz M, and Mantiuk RK, "Spatio-chromatic contrast sensitivity under mesopic and photopic light levels", Journal of Vision, 20(4 ), 2020
  15. [15] J. K. Ijspeert, T. J. T. P. Van Den Berg, and H. Spekreijse, „An improved mathematical description of the foveal visual point spread function with parameters for age, pupil size and pigmentation.“ Vision research 33(1) pp: 15-20, 1993.[15] JK Ijspeert, TJTP Van Den Berg, and H Spekreijse, "An improved mathematical description of the foveal visual point spread function with parameters for age, pupil size and pigmentation." Vision research 33(1) pp: 15-20 , 1993.
  16. [16] A.B. Watson, and J. I. Yellott, „A unified formula for light-adapted pupil size.“, Journal of vision, 12.10, 12-12, 2012[16] AB Watson, and JI Yellott, "A unified formula for light-adapted pupil size.", Journal of vision, 12.10, 12-12, 2012
  17. [17] P. A. Stanley, and A.K. Davies, „The effect of field of view size on steady-state pupil diameter.“, Ophthalmic & Physiological Optics, 15(6), pp. 601-603, 1995[17] P.A. Stanley, and A.K. Davies, "The effect of field of view size on steady-state diameter pupil.", Ophthalmic & Physiological Optics, 15(6), pp. 601-603, 1995
  18. [18] D.H. Hubel, and T. Wiesel, „Receptive fields, binocular interaction, and functional architecture in the cat's visual cortex“, Journal of Physiology, London, 160:106-154, 1962[18] I.E. Hubel, and T. Wiesel, "Receptive fields, binocular interaction, and functional architecture in the cat's visual cortex", Journal of Physiology, London, 160:106-154, 1962
  19. [19] R. L. de Valois, D. G. Albrecht, and L. G. Thorell, „Spatial frequency selectivity of cells in macaque visual cortex“, Vision Research, 22(5), pp.545-559,1982[19] R.L. de Valois, DG Albrecht, and L.G. Thorell, "Spatial frequency selectivity of cells in macaque visual cortex", Vision Research, 22(5), pp.545-559,1982
  20. [20] A. Distante, and C. Distante, Handbook of Image Processing and Computer Vision. Volume 1: From Energy to Image, p. 438, Springer International Publishing, 2020.[20] A Distante, and C Distante, Handbook of Image Processing and Computer Vision. Volume 1: From Energy to Image, p. 438, Springer International Publishing, 2020.
  21. [21] J.A. Ferwerda, „Elements of early vision for computer graphics.“, IEEE computer graphics and applications 21.5 pp: 22-33, 2001[21] J.A. Ferwerda, "Elements of early vision for computer graphics.", IEEE computer graphics and applications 21.5 pp: 22-33, 2001
  22. [22] E. Peli, „Test of a model of foveal vision by using simulations.“, Journal of the Optical Society of America A, 13.6, 1131-1138, 1996[22] E Peli, "Test of a model of foveal vision by using simulations.", Journal of the Optical Society of America A, 13.6, 1131-1138, 1996
  23. [23] E. Peli, „Contrast sensitivity function and image discrimination,“ Journal of the Optical Society of America A, 18, 283-293, 2001[23] E Peli, "Contrast sensitivity function and image discrimination," Journal of the Optical Society of America A, 18, 283-293, 2001
  24. [24] B. Wördenweber, P. Boyce, D.D. Hoffmann and J. Wallaschek, „Automotive lighting and human vision“, Vol. 1., Springer-Verlag, Berlin Heidelberg, 2007.[24] B. Wördenweber, P. Boyce, D.D. Hoffmann and J. Wallaschek, "Automotive lighting and human vision", Vol. 1., Springer-Verlag, Berlin Heidelberg, 2007.

BezugszeichenlisteReference List

11
digitales Bilddigital image
22
optische Kontrastempfindlichkeitsfunktionoptical contrast sensitivity function
33
neuronale Kontrastempfindlichkeitsfunktionneural contrast sensitivity function
44
Schwellenwert-KontrastempfindlichkeitsfunktionThreshold contrast sensitivity function
55
verändertes Bildchanged picture
66
Projektorprojector
77
Kameracamera
88th
Straßeroad
99
Lichtverteilunglight distribution
1010
kleiner dunkler Flecksmall dark spot
1111
großer dunkler Fleckbig dark spot

Claims (10)

Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung für ein Fahrzeug ausgehenden Lichts, gekennzeichnet durch folgende Verfahrensschritte: - ein digitales Bild (1), das einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtung eines Fahrzeugs ausgehenden Lichts entspricht, wird aufgenommen, - das digitale Bild (1) wird so verändert, dass das veränderte Bild (5) eine Rekonstruktion der Leuchtdichteverteilung ist, in der zumindest im Wesentlichen nur noch die von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung enthalten sind.Method for analyzing a luminance distribution of the light emanating from a lighting device for a vehicle, characterized by the following method steps: - a digital image (1), which corresponds to a luminance distribution of the light emanating from a lighting device for a vehicle, is recorded, - the digital image (1 ) is changed in such a way that the changed image (5) is a reconstruction of the luminance distribution, which at least essentially only contains the elements or parts of the luminance distribution that can be perceived by a human being. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das digitale Bild (1) mit einem Algorithmus verändert wird, der Verarbeitungsschritte des menschlichen visuellen Systems simuliert.procedure after claim 1 , characterized in that the digital image (1) is modified with an algorithm that simulates processing steps of the human visual system. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Algorithmus, insbesondere in einem ersten Schritt, die Veränderung eines Bildes (1) durch den optischen Aufbau eines menschlichen Auges simuliert.procedure after claim 2 , characterized in that the algorithm, in particular in a first step, simulates the change in an image (1) through the optical structure of a human eye. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass der Algorithmus, insbesondere in einem zweiten Schritt, die Verarbeitung einer Bildinformation zu einer Kontrastinformation, die insbesondere durch das menschliche Gehirn beziehungsweise durch Zelltypen in der Retina erfolgt, simulieren.Procedure according to one of claims 2 or 3 , characterized in that the algorithm, in particular in a second step, simulates the processing of image information into contrast information, which is carried out in particular by the human brain or by cell types in the retina. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Algorithmus, insbesondere in einem dritten Schritt, eine Sichtbarkeits-Schwelle bestimmt.Procedure according to one of claims 2 until 4 , characterized in that the algorithm, in particular in a third step, determines a visibility threshold. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Sichtbarkeits-Schwelle dazu dient, zu entscheiden, welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen wahrnehmbar sind und welche Elemente oder Teile der Leuchtdichteverteilung von einem Menschen nicht wahrnehmbar sind, wobei die gemäß dieser Entscheidung nicht von einem Menschen wahrnehmbaren Elemente oder Teile der Leuchtdichteverteilung nicht in das veränderte Bild (5) aufgenommen werden.procedure after claim 5 , characterized in that the visibility threshold serves to decide which elements or parts of the luminance distribution are perceivable by a human and which elements or parts of the luminance distribution are imperceptible by a human, the according to this decision not perceptible by a human Elements or parts of the luminance distribution are not included in the modified image (5). Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das veränderte digitale Bild (5) mit einem aus einer Soll-Leuchtdichteverteilung der Beleuchtungsvorrichtung generierten Bild verglichen wird, insbesondere um zu entscheiden, ob die von der Beleuchtungsvorrichtung erzeugte Lichtverteilung unter Berücksichtigung der Wahrnehmbarkeit durch einen Menschen geeigneten Vorgaben entspricht.Procedure according to one of Claims 1 until 6 , characterized in that the changed digital image (5) is compared with an image generated from a target luminance distribution of the lighting device, in particular to decide whether the light distribution generated by the lighting device, taking into account human perception, corresponds to suitable specifications. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Aufnahme des digitalen Bildes (1) eine Leuchtdichtemessung ist oder in eine Leuchtdichteverteilung umgerechnet wird.Procedure according to one of Claims 1 until 7 , characterized in that the recording of the digital image (1) is a luminance measurement or is converted into a luminance distribution. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Beleuchtungsvorrichtung eine Schlussleuchte oder ein Scheinwerfer ist, insbesondere ein hochauflösender Scheinwerfer, der eine Lichtverteilung (9) mit einer Vielzahl von Pixeln erzeugen kann.Procedure according to one of Claims 1 until 8th , characterized in that the lighting device is a tail light or a headlight, in particular a high-resolution headlight that can generate a light distribution (9) with a large number of pixels. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass es sich bei dem aufgenommenen digitalen Bild (1) um eine Aufnahme einer Scheinwerferlichtverteilung oder um eine Aufnahme einer Schlussleuchte handelt.Procedure according to one of Claims 1 until 9 , characterized in that the recorded digital image (1) is a recording of a headlight distribution or a recording of a tail light.
DE102022101854.7A 2021-06-02 2022-01-27 Method for analyzing a luminance distribution of light emanating from a lighting device for a vehicle Pending DE102022101854A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280039528.2A CN117413298A (en) 2021-06-02 2022-05-25 Method for analyzing the brightness distribution of light from a lighting device for a vehicle
PCT/EP2022/064222 WO2022253672A1 (en) 2021-06-02 2022-05-25 Method for analysing the luminance distribution of light emanating from an illumination device for a vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021114301 2021-06-02
DE102021114301.2 2021-06-02

Publications (1)

Publication Number Publication Date
DE102022101854A1 true DE102022101854A1 (en) 2022-12-22

Family

ID=84283539

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022101854.7A Pending DE102022101854A1 (en) 2021-06-02 2022-01-27 Method for analyzing a luminance distribution of light emanating from a lighting device for a vehicle

Country Status (1)

Country Link
DE (1) DE102022101854A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60020795T2 (en) 1999-11-11 2006-05-04 Tektronix, Inc., Beaverton Real-time modeling of the behavior of human vision systems
US20130201483A1 (en) 2012-02-03 2013-08-08 Chia-Liang Hsu Method and apparatus for testing light-emitting device
DE102013011975A1 (en) 2013-07-12 2015-01-29 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Method for evaluating headlamps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60020795T2 (en) 1999-11-11 2006-05-04 Tektronix, Inc., Beaverton Real-time modeling of the behavior of human vision systems
US20130201483A1 (en) 2012-02-03 2013-08-08 Chia-Liang Hsu Method and apparatus for testing light-emitting device
DE102013011975A1 (en) 2013-07-12 2015-01-29 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Method for evaluating headlamps

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PELI, Eli: Contrast in complex images. In: Journal of the Optical Society of America A (JOSA A): Optics, Image Science, and Vision, Bd. 7, 1990, H. 10, S. 2032-2040. - ISSN 0740-3232; 1084-7529 (P), 1520-8532. DOI: 10.1364/JOSAA.7.002032. URL: https://opg.optica.org/josaa/viewmedia.cfm?uri=josaa-7-10-2032&seq=0 [abgerufen am 2022-03-02].
WATSON, Andrew B.: A formula for the mean human optical modulation transfer function as a function of pupil size. In: Journal of Vision, Bd. 13, 2013, H. 6, S. 1-11. - ISSN 1534-7362 (E). DOI: 10.1167/13.6.18. URL: https://jov.arvojournals.org/arvo/content_public/journal/jov/932810/i1534-7362-13-6-18.pdf [abgerufen am 2022-03-02].
WUERGER, Sophie [u.a.]: Spatio-chromatic contrast sensitivity under mesopic and photopic light levels. In: Journal of Vision, Bd. 20, 2020, H. 4, S. 1-26. - ISSN 1534-7362 (E). DOI: 10.1167/jov.20.4.23. URL: https://jov.arvojournals.org/arvo/content_public/journal/jov/938446/i0035-8711-395-1-07118.pdf [abgerufen am 2022-03-03].

Similar Documents

Publication Publication Date Title
Geisler Sequential ideal-observer analysis of visual discriminations.
Hess et al. Contrast-coding in amblyopia. I. Differences in the neural basis of human amblyopia
AT505338B1 (en) PROCEDURE FOR PERFORMANCE MEASUREMENT
DE102019102373A1 (en) Method, software product and system for refraction determination on a mobile device
EP2642425A1 (en) Method and device for evaluating the results of eye tracking
DE102012208625B4 (en) Method and system for processing MRI data of the human brain
EP2790566B1 (en) Universal objective refraction
WO2022253672A1 (en) Method for analysing the luminance distribution of light emanating from an illumination device for a vehicle
EP3730036A1 (en) Determination of a refraction error of an eye
DE10100830A1 (en) Method for separating white and gray matter and cerebro-spinal fluid and calculate their respective volumes calculating information concerning artifacts of partial volumes of white matter and gray matter using information from slices
EP3352644B1 (en) Method and system for determining the subjective refraction properties of an eye
DE102004003688A1 (en) Procedure and eye test device to determine the need for a visual aid in the dark and / or twilight and a set of visual aids
DE102022101854A1 (en) Method for analyzing a luminance distribution of light emanating from a lighting device for a vehicle
WO2015091036A1 (en) Method for determining phase distribution
EP2539851B1 (en) Method and apparatus for analysing an image from an image capture device for a vehicle
DE10333813A1 (en) Online wavefront measurement and display
DE102011120973B4 (en) A method, apparatus and computer program product for acquiring objective refraction data for fitting and optimizing spectacles
DE102008008475B4 (en) Method and device and corresponding objects for determining the illumination radiation dose in surgical field illumination
EP2243419A1 (en) Integral and differential visual objects for examination and optimization of vision
Schier et al. A model for predicting the visibility of intensity discontinuities in light patterns of vehicle headlamps
Peterzell On the nonrelation between spatial frequency and cerebral hemispheric competence
CN117413298A (en) Method for analyzing the brightness distribution of light from a lighting device for a vehicle
DE102005016945A1 (en) Method of operating a perimeter and perimeter
Straßer et al. The perception threshold of the panda illusion, a particular form of 2D pulse-width-modulated halftone, correlates with visual acuity
DE102007001738B4 (en) Method and computer program product for eye tracking

Legal Events

Date Code Title Description
R163 Identified publications notified