DE102020124044A1 - DETECTION AND CORRECTION OF AN OPTICAL SURFACE DEGRADATION - Google Patents

DETECTION AND CORRECTION OF AN OPTICAL SURFACE DEGRADATION Download PDF

Info

Publication number
DE102020124044A1
DE102020124044A1 DE102020124044.9A DE102020124044A DE102020124044A1 DE 102020124044 A1 DE102020124044 A1 DE 102020124044A1 DE 102020124044 A DE102020124044 A DE 102020124044A DE 102020124044 A1 DE102020124044 A1 DE 102020124044A1
Authority
DE
Germany
Prior art keywords
optical surface
light source
light
vehicle
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020124044.9A
Other languages
German (de)
Inventor
David Michael Herman
Venkatesh Krishnan
Ashwin Arunmozhi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020124044A1 publication Critical patent/DE102020124044A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/80
    • G06T5/94
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Die Offenbarung stellt Detektion und Korrektur einer optischen Oberflächenverschlechterung bereit. Hierin werden Systeme, Vorrichtungen und Verfahren zur Detektion und Korrektur einer optischen Oberflächenverschlechterung bereitgestellt. Ein beispielhaftes Verfahren beinhaltet Verfolgen eines ersten Objekts innerhalb von Bildern eines interessierenden Bereichs, die über einen Zeitraum durch einen Bildsensor eines Fahrzeugs während einer Fahrzeugbewegung erhalten wurden; Verfolgen einer Lichtquelle innerhalb des interessierenden Bereichs; Bestimmen einer Änderung der relativen Reflexionsintensität des ersten Objekts unter Verwendung der Bilder auf Grundlage eines Lichtquellenwinkels, der zwischen der Lichtquelle und einer optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird, wobei die Änderung der relativen Reflexionsintensität Streulicht der optischen Oberfläche angibt; und Aktivieren einer Korrekturmaßnahme als Reaktion auf das Streulicht.

Figure DE102020124044A1_0000
The disclosure provides detection and correction of optical surface degradation. Systems, devices and methods for detecting and correcting optical surface deterioration are provided herein. An exemplary method includes tracking a first object within images of an area of interest obtained over a period of time by an image sensor of a vehicle during vehicle movement; Tracking a light source within the area of interest; Determining a change in the relative reflection intensity of the first object using the images based on a light source angle formed between the light source and an optical plane of an optical surface of the vehicle, the change in the relative reflection intensity indicating stray light of the optical surface; and activating a corrective action in response to the stray light.
Figure DE102020124044A1_0000

Description

GEBIET DER TECHNIKTECHNICAL FIELD

Die vorliegende Offenbarung betrifft Systeme und Verfahren, die Effekte von Streulicht oder Linsenreflexion, die durch den vorhandenen verschlechterten Zustand optischer Oberflächen in Fahrzeugen erzeugt werden, detektieren und in einigen Fällen korrigieren.The present disclosure relates to systems and methods that detect and, in some cases, correct the effects of stray light or lens reflection created by the existing degraded condition of optical surfaces in vehicles.

ALLGEMEINER STAND DER TECHNIKGENERAL STATE OF THE ART

Streulicht ist als Licht definiert, das von einem Bilderzeugungsstrahl reflektiert oder gestreut wurde, der schließlich seinen Weg zu einer Bildebene findet. Streulicht kann kein Bild bilden, sondern kann recht gleichmäßig über die Bildebene verteilt sein. Somit ergibt es das Erscheinungsbild eines Blicks durch einen Nebel (wie etwa Linsenreflexion) und die Wirkung des Reduzierens des Bildkontrasts. Streulicht kann die Effektivität von an Fahrzeugen montierten Kamerabildgebungssystemen und Wahrnehmungsalgorithmen reduzieren. Ein derartiges Streulicht kann durch Hindernisse auf den äußeren optischen Oberflächen einer Optik eines Automobils, wie etwa Windschutzscheibenoberflächen oder Kameralinsenabdeckungsoberflächen, verursacht werden. Bei Automobilanwendungen können derartige Hindernisse in Betriebsumgebungen auftreten, in denen Staub und andere Materialien die optische Oberfläche bedecken und zu Streulicht führen können. Zusätzlich können andere Sensortypen, die aktive Beleuchtung verwenden, wie etwa Laufzeitkameras (time-of-flight cameras - TOF-Kameras) oder Light Detection and Ranging (LIDAR), eine Abnahme der optischen Leistungsfähigkeit aufgrund eines erhöhten Grundrauschens erfahren, was zu einer verringerten maximalen Bereichsdetektion oder einem erhöhten Fehler beim Schätzen des Abstands führt. Diese Abnahme der optischen Leistungsfähigkeit kann sich auch auf die Fähigkeit auswirken, dunkle und/oder entfernte Objekte in Systemen, wie etwa erweiterten Fahrerassistenzsystemen (Advanced Driver Assistance Systems - ADAS) oder autonomen Fahrzeugen (Autonomous Vehicles - AV), aufzulösen.Scattered light is defined as light that has been reflected or scattered from an imaging beam that eventually finds its way to an image plane. Scattered light cannot form an image, but can be distributed quite evenly over the image plane. Thus, it gives the appearance of looking through a fog (such as lens reflection) and the effect of reducing image contrast. Stray light can reduce the effectiveness of vehicle-mounted camera imaging systems and perception algorithms. Such stray light can be caused by obstructions on the external optical surfaces of an automobile optics, such as windshield surfaces or camera lens cover surfaces. In automotive applications, such obstacles can occur in operating environments where dust and other materials can cover the optical surface and cause stray light. In addition, other types of sensors that use active lighting, such as time-of-flight cameras (TOF cameras) or light detection and ranging (LIDAR), may experience a decrease in optical performance due to increased noise floor, resulting in a decreased maximum Area detection or an increased error in estimating the distance leads. This decrease in optical performance can also affect the ability to resolve dark and / or distant objects in systems such as advanced driver assistance systems (ADAS) or autonomous vehicles (AV).

Zusätzlich gibt es eine Reihe von üblichen Fahrumgebungen oder Anwendungsfällen, die zu erhöhten Herausforderungen mit Streulicht führen, bei denen aufgrund des Winkels des Lichtfelds die Wirkung des Streulichts stärker ausgeprägt ist. Einige davon sind das Einfahren in einen Tunnel oder das Fahren bei Nacht mit Straßenlaternen, während die Windschutzscheibe schmutzig oder zerkratzt ist. Derartige Szenarien können zu Schwierigkeiten beim Detektieren von Objekten führen, die dunkler erscheinen als die Intensität des Streulichts.In addition, there are a number of common driving environments or use cases that lead to increased challenges with scattered light, where the effect of the scattered light is more pronounced due to the angle of the light field. Some of these include driving into a tunnel or driving at night with street lights on while the windshield is dirty or scratched. Such scenarios can lead to difficulties in detecting objects that appear darker than the intensity of the scattered light.

KURZDARSTELLUNGSHORT REPRESENTATION

Hierin werden Systeme, Vorrichtungen und Verfahren zur Detektion und Korrektur einer optischen Oberflächenverschlechterung bereitgestellt. Ein beispielhaftes Verfahren beinhaltet Verfolgen eines ersten Objekts innerhalb von Bildern eines interessierenden Bereichs, die über einen Zeitraum durch einen Bildsensor eines Fahrzeugs während einer Fahrzeugbewegung erhalten wurden; Verfolgen einer Lichtquelle innerhalb des interessierenden Bereichs; Bestimmen einer Änderung der relativen Reflexionsintensität des ersten Objekts unter Verwendung der Bilder auf Grundlage eines Lichtquellenwinkels, der zwischen der Lichtquelle und einer optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird, wobei die Änderung der relativen Reflexionsintensität Streulicht der optischen Oberfläche angibt; und Aktivieren einer Korrekturmaßnahme als Reaktion auf das Streulicht.Systems, devices and methods for detecting and correcting optical surface deterioration are provided herein. An exemplary method includes tracking a first object within images of an area of interest obtained over a period of time by an image sensor of a vehicle during vehicle movement; Tracking a light source within the area of interest; Determining a change in the relative reflection intensity of the first object using the images based on a light source angle formed between the light source and an optical plane of an optical surface of the vehicle, the change in the relative reflection intensity indicating stray light of the optical surface; and activating a corrective action in response to the stray light.

FigurenlisteFigure list

Die detaillierte Beschreibung wird unter Bezugnahme auf die beigefügten Zeichnungen dargelegt. Die Verwendung gleicher Bezugszeichen kann ähnliche oder identische Elemente angeben. Verschiedene Ausführungsformen können andere Elemente und/oder Komponenten nutzen als jene, die in den Zeichnungen veranschaulicht sind, und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu gezeichnet. In dieser Offenbarung kann in Abhängigkeit vom Kontext Singular- und Pluralterminologie austauschbar verwendet werden.

  • 1 stellt eine veranschaulichende Architektur dar, in der Techniken und Strukturen zum Bereitstellen der in dieser Schrift offenbarten Systeme, Vorrichtungen und Verfahren umgesetzt sein können.
  • Die 2A-2C veranschaulichen gemeinsam Bilder, die gemeinsam Streulicht oder Linsenreflexion und Objektdetektion darstellen.
  • 3 stellt schematisch Hindernisse oder Ablagerungen dar, die Varianzen von Streulicht oder Linsenreflexion auf einer optischen Oberfläche erzeugen.
  • Die 4A-4C stellen gemeinsam eine Streulicht von Linsenreflexionsdetektion gemäß der vorliegenden Offenbarung in einer nächtlichen Umgebung dar.
  • 5 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung, das die Detektion und Korrektur von Streulicht oder Linsenreflexion beinhaltet.
The detailed description is set forth with reference to the accompanying drawings. The use of the same reference symbols can indicate similar or identical elements. Different embodiments may utilize different elements and / or components than those illustrated in the drawings, and some elements and / or components may not be present in different embodiments. The elements and / or components in the figures are not necessarily drawn to scale. In this disclosure, singular and plural terminology may be used interchangeably depending on the context.
  • 1 FIG. 10 depicts an illustrative architecture in which techniques and structures for providing the systems, devices, and methods disclosed in this document may be implemented.
  • The 2A-2C jointly illustrate images that jointly represent scattered light or lens reflection and object detection.
  • 3 shows schematically obstacles or deposits that create variances of scattered light or lens reflection on an optical surface.
  • The 4A-4C collectively depict scattered light from lens reflection detection in accordance with the present disclosure in a nocturnal environment.
  • 5 Figure 4 is a flow diagram of an exemplary method of the present disclosure that includes detecting and correcting for stray light or lens reflection.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

Überblickoverview

Die hierin offenbarten Systeme, Vorrichtungen und Verfahren sind dazu konfiguriert, Streulicht oder Linsenreflexion aufgrund einer Verschlechterung einer optischen Oberfläche eines Fahrzeugs zu detektieren. Selbstverständlich sind die Ausführungsformen in dieser Schrift nicht nur auf die Detektion von Streulicht beschränkt und die vorliegende Offenbarung kann die Detektion und Korrektur von Streulicht und/oder Linsenreflexion beinhalten. Im Allgemeinen wird, wenn auf Streulicht Bezug genommen wird, angenommen, dass auch Linsenreflexion berücksichtigt werden kann, sofern nicht ausdrücklich etwas anderes angegeben ist. In einigen Ausführungsformen können die Systeme, Vorrichtungen und Verfahren dieser Schrift dazu konfiguriert sein, Streulicht oder Linsenreflexion zu detektieren und als Reaktion darauf eine Korrekturhandlung zu aktivieren, um eine Verschlechterung der optischen Oberfläche zu beheben.The systems, devices, and methods disclosed herein are configured to detect stray light or lens reflection due to degradation of an optical surface of a vehicle. Of course, the embodiments in this document are not limited to the detection of scattered light and the present disclosure can include the detection and correction of scattered light and / or lens reflection. In general, when reference is made to scattered light, it is assumed that lens reflection can also be taken into account, unless expressly stated otherwise. In some embodiments, the systems, devices, and methods of this document may be configured to detect stray light or lens reflection and, in response, to activate corrective action to correct deterioration in the optical surface.

Im Allgemeinen nutzt die vorliegende Offenbarung die Kenntnis über die funktionellen/physikalischen Beziehungen zwischen einer optischen Oberfläche und einem Einfallswinkel der Lichtquelle (auch als Lichtquellenwinkel bezeichnet), um die Detektion und Messung von Hindernissen auf der optischen Oberfläche zu verbessern. Der Ausdruck Hindernis sollte so verstanden werden, dass er eine vorübergehende oder dauerhafte Verschlechterung einer optischen Oberfläche beinhaltet. Eine Verschlechterung kann auf Oberflächendefekte wie Kratzer oder Lochfraß zurückzuführen sein, kann jedoch auch auf Fremdmaterial wie etwa Wasser, Staub, Schmutz, Schimmel, Insekten und anderes Fremdmaterial zurückzuführen sein. Selbstverständlich können die hierin offenbarten Systeme und Verfahren auch verwendet werden, um ein Ausmaß von auf einer optischen Oberfläche vorhandenen Hindernissen zu quantifizieren, die im Allgemeinen durch menschliche Beobachtung nicht erkannt werden. Hindernisse können auch durch Verschlechterungsprozesse, wie etwa Verschlechterung durch ultraviolettes Licht und dergleichen, erzeugt werden. Streulicht kann sich auf Bilder auswirken, die durch eine Kamera oder einen anderen Lichtsensor in einem Fahrzeug erhalten werden, oder kann die Sicht des Fahrers im Allgemeinen verdecken.In general, the present disclosure uses knowledge of the functional / physical relationships between an optical surface and an angle of incidence of the light source (also referred to as light source angle) in order to improve the detection and measurement of obstacles on the optical surface. The term obstacle should be understood to include temporary or permanent deterioration of an optical surface. Deterioration can be due to surface defects such as scratches or pitting, but it can also be due to foreign matter such as water, dust, dirt, mold, insects, and other foreign matter. Of course, the systems and methods disclosed herein can also be used to quantify an extent of obstructions present on an optical surface that are generally undetectable by human observation. Obstacles can also be created by deterioration processes such as deterioration by ultraviolet light and the like. Stray light can affect images obtained by a camera or other light sensor in a vehicle, or can obscure the driver's view in general.

Zum Beispiel könnte Streulicht durch Fremdmaterial auf einer Windschutzscheibe verursacht werden. Eine Kamera, die hinter der Windschutzscheibe positioniert ist, kann durch das Streulicht, das durch Fremdmaterial auf der Windschutzscheibe verursacht wird, nachteilig beeinflusst werden. In einem anderen Beispiel kann sich Fremdmaterial, wie etwa Staub, auf der Linse einer Kamera befinden.For example, stray light could be caused by foreign matter on a windshield. A camera positioned behind the windshield can be adversely affected by the stray light caused by foreign matter on the windshield. In another example, foreign material, such as dust, may be on the lens of a camera.

Anders ausgedrückt, stellt die vorliegende Offenbarung in einigen Ausführungsformen die Detektion und Quantifizierung von Hindernissen auf einer optischen Oberfläche (z. B. Staub auf einer Windschutzscheibe) bereit, die zu Streulicht während des Betriebs führen. Die Detektion von Streulicht kann als ein Auslöser oder eine Bedingung verwendet werden, um die Reinigungssysteme zu betätigen oder ADAS/AV-Wahrnehmungs- und -Planungsalgorithmen sowie Reaktionen auf Systemebene, wie etwa Deaktivieren von ADAS-Merkmalen, zu modifizieren.In other words, in some embodiments, the present disclosure provides for the detection and quantification of obstructions on an optical surface (e.g., dust on a windshield) that result in stray light during operation. The detection of stray light can be used as a trigger or condition to actuate the cleaning systems or to modify ADAS / AV sensing and planning algorithms and system level responses such as disabling ADAS features.

In einigen Ausführungsformen können Systeme, Vorrichtungen und Verfahren dieser Schrift die Kenntnis über einen interessierenden Bereich während der Bewegung des Fahrzeugs nutzen, wie etwa, dass das Fahrzeug in einen Tunnel einfährt/aus diesem ausfährt oder eine Vorwärtsbewegung in der Nähe von Straßenlaternen, um beim Quantifizieren einer Größe des Streulichts zu helfen. Die Systeme, Vorrichtungen und Verfahren dieser Schrift können ableiten, dass die Größe des Streulichts gegenüber der relativen Ausrichtung der Lichtquelle und der optischen Oberfläche (definiert durch eine optische Ebene) empfindlich ist. Selbstverständlich kann die Lichtquelle von einem einzelnen Ursprung stammen oder kann von vielen Quellen stammen, einschließlich unter anderem Albedo, Himmelskuppel, Sonne, Infrastrukturbeleuchtung, reflektierter Beleuchtung und so weiter.In some embodiments, systems, devices, and methods of this document may utilize knowledge of an area of interest while the vehicle is moving, such as the vehicle entering / exiting a tunnel or forward movement near street lights, in order to quantify to help a size of scattered light. The systems, devices and methods of this document can infer that the size of the scattered light is sensitive to the relative alignment of the light source and the optical surface (defined by an optical plane). Of course, the light source can be from a single source or can be from many sources including, but not limited to, albedo, sky dome, sun, infrastructure lighting, reflected lighting, and so on.

Zusätzlich kann ein Fahrzeug Objekte auf Grundlage von Kontrast (z. B. dunkle und helle Objekte) in einem Bereich von interessierender Zeit während Änderungen der relativen Ausrichtung der Lichtquelle verfolgen. In einigen Ausführungsformen wird eine Vielzahl von Sensoreingaben verwendet, um Kontrastbestimmungen zu synthetisieren. Zum Beispiel können Kameras, Infrarotsensoren und andere ähnliche Kontrastdetektionssensoren verwendet werden.Additionally, a vehicle can detect objects based on contrast (e.g., dark and light objects) in a range of time of interest as the relative orientation of the light source changes follow. In some embodiments, a variety of sensor inputs are used to synthesize contrast determinations. For example, cameras, infrared sensors, and other similar contrast detection sensors can be used.

Wenn sich die relative Ausrichtung der Lichtquelle ändert, kann das Fahrzeug die ursprüngliche und die aktuelle relative Reflexionsintensität der Objekte überwachen, um den Streulichtgrad zu detektieren und Bedingungen, wie etwa eine nominale oder verschmutzte Windschutzscheibe, zu identifizieren. Bei Detektion von Streulicht können ein oder mehrere Fahrzeugsysteme betätigt werden, um die Auswirkung oder die Grundursache des Streulichts zu reduzieren.When the relative orientation of the light source changes, the vehicle can monitor the original and current relative reflection intensities of the objects to detect the level of stray light and identify conditions such as a nominal or dirty windshield. When stray light is detected, one or more vehicle systems can be actuated to reduce the effect or root cause of the stray light.

Die Systeme, Vorrichtungen und Verfahren in dieser Schrift können Streulicht auf Grundlage eines Bildes sowie in mehreren Bildern bestimmen, die über einen Zeitraum erhalten wurden, um die Detektion und Messung zu verbessern. In einigen Ausführungsformen kann die vorliegende Offenbarung das Verfolgen von Objekten in Bildern beinhalten, die über einen Zeitraum erhalten wurden. Die Objekte können verfolgt werden und der Kontrast der Objekte kann über den Zeitraum beobachtet werden (z. B. Helligkeit gegenüber der Dunkelheit von Objekten). Zusätzlich kann eine Lichtquelle, wie etwa eine Straßenlaterne oder die Sonne, verfolgt werden und kann ein Lichtquellenwinkel relativ zu einer optischen Ebene einer optischen Oberfläche bestimmt werden. Streulicht kann anhand einer Änderung der relativen Reflexionsintensität von Objekten auf Grundlage des Lichtquellenwinkels bestimmt werden, der zwischen der Lichtquelle und der optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird. In einigen Ausführungsformen können, wenn Streulicht detektiert wird, die Systeme, Vorrichtungen und Verfahren in dieser Schrift das Streulicht durch Betätigung einer Reinigungsbaugruppe, wie etwa Abgeben von Scheibenwischerfluid und Betätigung von Scheibenwischern, korrigieren, wenn die optische Oberfläche eine vordere oder hintere Windschutzscheibe des Fahrzeugs beinhaltet. Selbstverständlich bezieht sich das in einigen Ausführungsformen detektierte Streulicht auf die Lokalisierung des Streulichts von dem Blickwinkel einer Kamera. Zum Beispiel weist eine Kamera eine feste und große Brennweite auf, was dazu führt, dass Hindernisse typischerweise unscharf sind.The systems, devices, and methods in this document can determine scattered light based on an image as well as in multiple images obtained over a period of time to improve detection and measurement. In some embodiments, the present disclosure may include tracking objects in images obtained over time. The objects can be tracked and the contrast of the objects can be observed over time (e.g. brightness versus darkness of objects). In addition, a light source such as a street lamp or the sun can be tracked and a light source angle relative to an optical plane of an optical surface can be determined. Scattered light can be determined from a change in the relative reflection intensity of objects based on the light source angle formed between the light source and the optical plane of an optical surface of the vehicle. In some embodiments, if stray light is detected, the systems, devices, and methods herein can correct the stray light by actuating a cleaning assembly, such as dispensing wiper fluid and actuating wipers, when the optical surface includes a front or rear windshield of the vehicle . Of course, the scattered light detected in some embodiments relates to the location of the scattered light from the viewing angle of a camera. For example, a camera has a fixed and long focal length, which means that obstacles are typically blurred.

In einem anderen Beispiel kann ein Parameter, ein Attribut oder eine Handlung eines ADAS/AV-Fahrzeugsystems modifiziert werden, um das Streulicht zu korrigieren. Zum Beispiel könnte eine Geschwindigkeit des Fahrzeugs reduziert werden, wenn Streulicht identifiziert wird. Die Wirksamkeit von Korrekturvorgängen, wie etwa Windschutzscheibenreinigung, kann in einigen Ausführungsformen verifiziert werden. In anderen Ausführungsformen können Grundursachen von Streulicht bestimmt werden, wenn Bilder von einer Vielzahl von Bildsensoren verwendet werden. In einer oder mehreren Ausführungsformen kann ein neuronales Netz verwendet werden, um die Grundursachen von Streulicht zu identifizieren oder abzuleiten.In another example, a parameter, attribute, or action of an ADAS / AV vehicle system can be modified to correct for the stray light. For example, a speed of the vehicle could be reduced when stray light is identified. The effectiveness of corrective actions, such as windshield cleaning, can be verified in some embodiments. In other embodiments, root causes of stray light can be determined using images from a plurality of image sensors. In one or more embodiments, a neural network can be used to identify or infer the root causes of stray light.

Veranschaulichende AusführungsformenIllustrative embodiments

Es wird nun auf die Zeichnungen Bezug genommen, in denen 1 eine veranschaulichende Architektur 100 darstellt, in der Techniken und Strukturen der vorliegenden Offenbarung umgesetzt sein können. Die veranschaulichende Architektur 100 kann ein Fahrzeug 102, einen interessierenden Bereich 104, ein oder mehrere Objekte, wie etwa das Objekt 106 und 108, eine Lichtquelle 110, einen Dienstanbieter 112 und ein Netz 115 beinhalten. Im Allgemeinen könnte das erste Objekt 106 eine Straßenoberfläche beinhalten und könnte das zweite Objekt 108 eine Stoßstange eines Fahrzeugs beinhalten. Andere Objekte können gleichermaßen wie hierin offenbart identifiziert und verfolgt werden.Reference is now made to the drawings, in which 1 an illustrative architecture 100 illustrates in which the techniques and structures of the present disclosure may be implemented. The illustrative architecture 100 can be a vehicle 102 , an area of interest 104 , one or more objects, such as the object 106 and 108 , a light source 110 , a service provider 112 and a network 115 include. In general, the first object could 106 include a road surface and could be the second object 108 include a bumper of a vehicle. Other objects can likewise be identified and tracked as disclosed herein.

Komponenten der Architektur 100, wie etwa das Fahrzeug 102 und der Dienstanbieter 112, können über ein Netz 115 miteinander kommunizieren. Das Netz 115 kann eine beliebige Art oder eine Kombination aus mehreren unterschiedlichen Arten von Netzen beinhalten, wie etwa Kabelnetze, das Internet, drahtlose Netze und andere private und/oder öffentliche Netze. In einigen Fällen kann das Netz 115 Mobilfunk, Wi-Fi oder Wi-Fi Direct beinhalten.Components of the architecture 100 such as the vehicle 102 and the service provider 112 , can use a network 115 communicate with each other. The network 115 may include any type or combination of several different types of networks, such as cable networks, the Internet, wireless networks, and other private and / or public networks. In some cases the network may 115 Include cellular, Wi-Fi, or Wi-Fi Direct.

Im Allgemeinen kann das Fahrzeug 102 ein beliebiges Fahrzeug umfassen, das eine optische Oberfläche 114, eine Sensorbaugruppe 116, eine Steuerung 118 und eine Kommunikationsschnittstelle 120 (ein optionales Merkmal für einige Ausführungsformen) umfassen kann. In verschiedenen Ausführungsformen beinhaltet die optische Oberfläche 114 eine vordere oder hintere Windschutzscheibe des Fahrzeugs 102. Der Kürze und Übersichtlichkeit halber können hierin bereitgestellte Beispiele auf die optische Oberfläche 114 als die vordere Windschutzscheibe des Fahrzeugs 102 Bezug nehmen. Die optische Oberfläche kann andere Oberflächen innerhalb des Fahrzeugs 102 beinhalten, wie hierin ausführlicher erörtert wird.In general, the vehicle can 102 include any vehicle that has an optical surface 114 , a sensor assembly 116 , a controller 118 and a communication interface 120 (an optional feature for some embodiments). In various embodiments, the optical surface includes 114 a front or rear windshield of the vehicle 102 . For the sake of brevity and clarity, examples provided herein can be applied to the optical surface 114 than the front windshield of the vehicle 102 To refer to. The optical surface can be other surfaces within the vehicle 102 as discussed more fully herein.

Streulicht 122 kann erzeugt werden, wenn ein Lichtstrahl 123, der von der Lichtquelle 110 emittiert wird, mit Fremdobjekten oder Hindernissen 126 auf der optischen Oberfläche 114 interagiert und von diesen gestreut wird. Ein beliebiges Fremdobjekt, das auf der optischen Oberfläche 114 vorhanden ist, kann Streulicht verursachen. Beispiele für Fremdobjekte/- material können unter anderem Staub, Risse, Vertiefungen oder andere ähnliche Artefakte sein. Das Ausmaß, die Opazität und/oder das Reflexionsvermögen der Hindernisse 126 können variierende Ausmaße von Streulicht erzeugen.Stray light 122 can be generated when a beam of light 123 coming from the light source 110 is emitted with foreign objects or obstacles 126 on the optical surface 114 interacts and is scattered by them. Any foreign object that is on the optical surface 114 present can cause stray light. Examples of foreign objects / material can include dust, cracks, pits, or other similar artifacts. The extent, opacity, and / or reflectivity of the obstacles 126 can create varying amounts of scattered light.

In einigen Ausführungsformen umfasst die Sensorbaugruppe 116 einen ersten Bildsensor 128 und einen Lichtsensor 130. In optionalen Ausführungsformen kann die Sensorbaugruppe 116 einen zweiten Bildsensor 131 umfassen. Zusätzliche Details bezüglich der Verwendung des zweiten Bildsensors 131 werden untenausführlicher bereitgestellt. Ein Bild 127, das durch den ersten Bildsensor 128 aufgenommen wurde, beinhaltet die Objekte 106 und 108, wobei Streulicht 122 aufgrund von Fremdobjekten oder Hindernissen 126 auf der optischen Oberfläche 114 vorhanden ist.In some embodiments, the sensor assembly comprises 116 a first image sensor 128 and a light sensor 130 . In optional embodiments, the sensor assembly 116 a second image sensor 131 include. Additional details regarding the use of the second image sensor 131 are provided in more detail below. A picture 127 that through the first image sensor 128 was recorded, contains the objects 106 and 108 , being stray light 122 due to foreign objects or obstacles 126 on the optical surface 114 is available.

In einigen Ausführungsform könnte der erste Bildsensor 128 beliebige von einer Kamera, einer Laufzeit(TOF)-Kamera, einer plenoptischen Kamera, LIDAR oder einem anderen ähnlichen System umfassen, die/das durch Streulicht nachteilig beeinflusst werden kann. Das Streulicht kann eine Linse 132 des ersten Bildsensors 128 beeinflussen, wenn die Kamera Bilder des interessierenden Bereichs 104 während des Fahrzeugbetriebs erhält. Somit kann in einigen Fällen die Linse 132 als ein Beispiel für eine optische Oberfläche für die Zwecke der vorliegenden Offenbarung verstanden werden. Andere Beispiele könnten einen Filter, einen Strahlteiler oder andere gleichwertige Strukturen beinhalten.In some embodiments, the first image sensor could 128 include any of a camera, time of flight (TOF) camera, plenoptic camera, LIDAR, or other similar system that can be adversely affected by stray light. The scattered light can be a lens 132 of the first image sensor 128 affect when the camera takes pictures of the area of interest 104 received during vehicle operation. Thus, in some cases, the lens can 132 be understood as an example of an optical surface for the purposes of the present disclosure. Other examples could include a filter, beam splitter, or other equivalent structure.

In anderen Ausführungsformen kann der erste Bildsensor 128 aufgrund seiner Position hinter der optischen Oberfläche 114 von Streulicht 122 beeinflusst werden. Das heißt, während in einigen Ausführungsformen Streulicht auf ein Hindernis oder Artefakte auf der Linse 132 des ersten Bildsensors 128 zurückzuführen sein kann, kann Streulicht auf der optischen Oberfläche 114 auftreten. In einigen Ausführungsformen kann Streulicht auf ein Hindernis/Artefakte sowohl auf der Linse 132 des ersten Bildsensors 128 als auch auf der optischen Oberfläche 114 des Fahrzeugs 102 zurückzuführen sein. Zusätzlich ermöglichen die Systeme, Vorrichtungen und Verfahren in dieser Schrift Bestimmungen dahingehend, ob das Streulicht auf ein Hindernis/Artefakte auf der Linse 132 des ersten Bildsensors 128 und/oder auf der optischen Oberfläche 114 des Fahrzeugs 102 zurückzuführen ist, und zwar unter Verwendung von Korrektur- und Validierungsprozessen, die in dieser Schrift ausführlicher beschrieben sind.In other embodiments, the first image sensor 128 due to its position behind the optical surface 114 from stray light 122 to be influenced. That is, while in some embodiments, light strays onto an obstacle or artifacts on the lens 132 of the first image sensor 128 can be attributed to stray light on the optical surface 114 occur. In some embodiments, stray light can strike an obstacle / artifact on both the lens 132 of the first image sensor 128 as well as on the optical surface 114 of the vehicle 102 be due. In addition, the systems, devices and methods in this document enable determinations as to whether the stray light is on an obstacle / artifact on the lens 132 of the first image sensor 128 and / or on the optical surface 114 of the vehicle 102 using correction and validation processes, which are described in more detail in this document.

Es kann auch zwischen Linsenreflexion und Streulicht unterschieden werden. Linsenreflexion tritt auf, wenn Licht auf eine optische Komponente, wie etwa Verbundlinsenstruktur oder Sensorchipverpackung, trifft und innerhalb der optischen Komponenten gestreut wird, bis es letztendlich durch den Sensor absorbiert wird. Dadurch können Bildartefakte verursacht werden, die als Streulicht bekannt sind, aber sie sind aufgrund der Symmetrie der Streuung der optischen Komponente strukturiert und werden als Winkelfunktion des Kamera-LichtquellenWinkels und nicht des Glaswinkels ausgedrückt. In einigen Anwendungen kann es sich um den gleichen Winkel handeln. Unter der Annahme, dass die Linsenreflexion, abgesehen von der Winkelabhängigkeit, fest ist, kann ein Effekt für ein gegebenes optisches System modelliert werden, um die Funktion zu erzeugen. Die Funktion wird dann umgekehrt, um die Linsenreflexion zu entfernen, um nur den Streulichteffekt zu isolieren. In einigen Fällen ist die Linsenreflexion möglicherweise nicht fest. Die dadurch verursachte Blendung weist eine andere geometrische Beziehung zu der Lichtquelle auf und die resultierende Blendung zeigt mehr Struktur als eine Staubschicht, die Streulicht verursacht.A distinction can also be made between lens reflection and scattered light. Lens reflection occurs when light hits an optical component, such as a composite lens structure or sensor chip package, and is scattered within the optical components until it is ultimately absorbed by the sensor. This can cause image artifacts known as scattered light, but they are structured due to the symmetry of the scattering of the optical component and are expressed as an angle function of the camera light source angle rather than the lens angle. In some applications it can be the same angle. Assuming that the lens reflection is fixed apart from the angular dependence, an effect can be modeled for a given optical system to produce the function. The function is then reversed to remove lens reflection to isolate only the flare effect. In some cases, the lens reflection may not be fixed. The resulting glare has a different geometric relationship to the light source and the resulting glare shows more structure than a layer of dust that causes stray light.

In einer Ausführungsform erhält der erste Bildsensor 128 Fotos oder andere ähnliche Bilder, wie etwa die Fotos aus den 2A-2C. In diesen Fotos ist eine Bildverschlechterung aufgrund von Streulicht vorhanden. Zum Beispiel ist in einem ersten Bild 200 (2A), wenn das Fahrzeug unter einer Brücke 202 in dem interessierenden Bereich fährt, wenig bis kein Streulicht vorhanden. Ein Objekt 204, wie etwa ein Fahrzeug, kann bestimmt und verfolgt werden. Ein Kontrast oder eine Dunkelheit des Objekts 204 kann aus dem ersten Bild 200 bestimmt werden. In einigen Ausführungsformen kann der Kontrast relativ zu einer Ausgangs- oder Vergleichsbestimmung bestimmt werden, die in der Steuerung 118 vorprogrammiert ist (siehe 1). Das heißt, dass Bestimmungen des Kontrasts relativ zu Vergleichswerten vorgenommen werden können, um helle gegenüber dunklen Objekten in einem Bild eines interessierenden Bereichs zu identifizieren. In anderen Ausführungsformen werden Kontrastunterscheidungen unter Verwendung mehrerer Bilder vorgenommen, die im Laufe der Zeit erhalten werden, wobei ein erstes der Bilder als Vergleichswert in Bezug auf den Kontrast verwendet wird. Beispielhafte Verfahren für die Kontrastdetektionswahrscheinlichkeit, die verwendet werden können, sind in Geese, Marc, Ulrich Seger und Alfredo Paolillo. „Detection Probabilities: Performance Prediction for Sensors of Autonomous Vehicles.“ Electronic Imaging 2018.17 (2018): 1-14, enthalten.In one embodiment, the first image sensor receives 128 Photos or other similar images, such as the photos from the 2A-2C . There is image degradation due to stray light in these photos. For example is in a first picture 200 ( 2A) when the vehicle is under a bridge 202 drives in the area of interest, little to no stray light is present. An object 204 such as a vehicle can be identified and tracked. A contrast or a darkness of the object 204 can from the first picture 200 to be determined. In some embodiments, the contrast may be determined relative to an initial or comparative determination that is in the controller 118 is preprogrammed (see 1 ). That is, determinations of the contrast can be made relative to comparison values in order to identify light versus dark objects in an image of an area of interest. In other embodiments, contrast discriminations are made using a plurality of images obtained over time, with a first of the images being used as a comparison value with respect to contrast. Exemplary contrast detection probability methods that can be used are in Geese, Marc, Ulrich Seger, and Alfredo Paolillo. "Detection Probabilities: Performance Prediction for Sensors of Autonomous Vehicles." Electronic Imaging 2018.17 (2018): 1-14, included.

Wenn das Fahrzeug unter der Brücke herausfährt, ändert sich der Kontrast oder die Dunkelheit des Objekts 204, wie in dem zweiten Bild 206 aus 2B und einem dritten Bild 208 aus 2C veranschaulicht. Außerdem ist ein Bereich mit Streulicht 210 in einem zweiten Bild 206 vorhanden und vergrößert sich, wie in dem dritten Bild 208 veranschaulicht. Das Streulicht 210 vergrößert sich von 2B zu 2C aufgrund von Änderungen des Lichtquellenwinkels, wie vorstehend erörtert. Eine Intensität oder Größe des Streulichts 210 kann relativ zu Änderungen des relativen Reflexionsvermögens des Objekts 204 im Laufe der Zeit bestimmt werden, wie etwa zwischen den Bildern aus 2B und 2C. Wenn die relative Helligkeit des Objekts 204 zunimmt, kann abgeleitet werden, dass das Streulicht 210 zugenommen hat. Dies kann durch Identifizieren einer relativen Änderung des Winkels der Lichtquelle bestätigt werden.As the vehicle pulls out from under the bridge, the contrast or darkness of the object changes 204 as in the second picture 206 out 2 B and a third picture 208 out 2C illustrated. There is also an area with stray light 210 in a second picture 206 present and enlarges, as in the third picture 208 illustrated. The stray light 210 increases from 2 B to 2C due to changes in light source angle, as discussed above. An intensity or size of the scattered light 210 can be relative to changes in the relative reflectivity of the object 204 can be determined over time, such as between images 2 B and 2C . When the relative brightness of the object 204 increases, it can be deduced that the scattered light 210 has increased. This can be confirmed by identifying a relative change in the angle of the light source.

Unter erneuter Bezugnahme auf 1 kann die Steuerung 118 dazu konfiguriert sein, durch die Sensorbaugruppe 116 erhaltene Bilder zu verarbeiten, Lichtquellenwinkel zu berechnen und das Vorhandensein von Streulicht sowie anderer zugehöriger Merkmale, wie etwa Linsenreflexion, zu bewerten. Die Steuerung 118 kann einen Prozessor 134 und einen Speicher 136 umfassen. Der Speicher 136 speichert Anweisungen, die durch den Prozessor 134 ausgeführt werden, um Aspekte der Streulichtdetektion und/oder -korrektur durchzuführen, wie hierin offenbart. Wenn auf Vorgänge Bezug genommen wird, die durch die Steuerung 118 ausgeführt werden, versteht es sich, dass dies die Ausführung von Anweisungen durch den Prozessor 134 beinhaltet.Referring again to FIG 1 can control 118 to be configured by the sensor assembly 116 process received images, calculate light source angles, and assess the presence of stray light and other related features such as lens reflection. The control 118 can have a processor 134 and a memory 136 include. The memory 136 stores instructions issued by the processor 134 to perform aspects of flare detection and / or correction as disclosed herein. When referring to operations performed by the controller 118 it is understood that this is the execution of instructions by the processor 134 includes.

Die Steuerung 118 kann dazu konfiguriert sein, Bilder von dem ersten Bildsensor 128 zu empfangen und die Bilder zu verarbeiten, um Objekte darin zu identifizieren. Die Objekte können auf Grundlage des Kontrasts relativ zueinander beurteilt werden. Das heißt, die Steuerung 118 kann dazu konfiguriert sein, Objekte auf Grundlage ihrer relativen Dunkelheit oder Helligkeit zu detektieren und zu verfolgen. Beispielhafte Objekte können Autos, Beschilderung, Straßenoberflächenmarkierungen und so weiter beinhalten. Anders ausgedrückt, können in dem interessierenden Bereich 104 Objekte mit unterschiedlichen relativen Intensitäten, wie etwa eine Straßenoberfläche oder ein schwarzes Auto, verfolgt werden, um Änderungen ihrer relativen Intensitäten im Verlauf der Zeit zu identifizieren.The control 118 can be configured to take images from the first image sensor 128 to receive and process the images to identify objects therein. The objects can be judged relative to one another based on the contrast. That is, the controls 118 can be configured to detect and track objects based on their relative darkness or lightness. Exemplary objects can include cars, signage, road surface markings, and so on. In other words, can be in the area of interest 104 Objects with different relative intensities, such as a road surface or a black car, are tracked to identify changes in their relative intensities over time.

Die Steuerung 118 (oder eine spezifische Konfiguration des Lichtsensors 130) kann auch einen Standort/eine Position der Lichtquelle 110, wie etwa der Sonne, relativ zu der optischen Oberfläche 114 des Fahrzeugs 102 bestimmen. Die Steuerung kann einen Lichtquellenwinkel LA auf Grundlage der/des bestimmten oder bewerteten Position/Standorts der Lichtquelle 110 in Bezug auf die optische Oberfläche 114 bestimmen. Insbesondere wird der Lichtquellenwinkel LA als der Winkel zwischen dem Lichtstrahl 123 und einer optischen Ebene OP gemessen, die komplanar zu der optischen Oberfläche 114 liegt. In einigen Ausführungsformen, wie etwa, wenn die Lichtquelle 110 die Sonne ist, kann eine Position der Sonne relativ zu der optischen Oberfläche auf Grundlage einer bekannten Tageszeit, einer Fahrtrichtung des Fahrzeugs und eines Standorts des Fahrzeugs, eines Straßengefälles, einer Fahrzeugneigung bestimmt werden, kann eine Position der Sonne bestimmt werden.The control 118 (or a specific configuration of the light sensor 130 ) can also specify a location / position of the light source 110 , such as the sun, relative to the optical surface 114 of the vehicle 102 determine. The controller can set a light source angle L A based on the determined or assessed position / location of the light source 110 in terms of the optical surface 114 determine. In particular, the light source angle L A is defined as the angle between the light beam 123 and an optical plane O P which is coplanar to the optical surface 114 lies. In some embodiments, such as when the light source 110 is the sun, a position of the sun relative to the optical surface can be determined based on a known time of day, a direction of travel of the vehicle and a location of the vehicle, a road gradient, a vehicle inclination, a position of the sun can be determined.

In verschiedenen Ausführungsformen kann ein Einbauwinkel der optischen Oberfläche 114, der relativ zu einer Bodenebene bestimmt wird, aus Herstellerangaben bekannt sein. Mit dem bekannten Winkel der optischen Oberfläche 114 und der Position/dem Standort der Lichtquelle 110 kann die Steuerung 118 den Lichtquellenwinkel LA bestimmen. In einigen Fällen kann die optische Oberfläche eine Krümmung aufweisen, sodass der relative Winkel zu der Lichtquelle entlang der optischen Oberfläche variieren kann. Anders ausgedrückt, können eine oder mehrere Lichtquellen detektiert und verfolgt werden, zum Beispiel unter Verwendung einer kameravermittelten Detektion von Straßenlaternen und/oder einer Vorrichtung (wie etwa der Steuerung 118), die dazu konfiguriert ist, eine indirekte Bestimmung von Lichtquellen durchzuführen. Zum Beispiel kann die Steuerung 118 Lokalisierung (z.B. Echtzeit-Positionsbestimmung) und hochauflösende Karten verwenden, um eine relative Position der Lichtquelle 110 zu der optischen Oberfläche 114 zu identifizieren. Einige Ausführungsformen können Lichtfelddaten oder Wetterdaten verwenden, die von einer Ressource erhalten werden.In various embodiments, an installation angle of the optical surface 114 , which is determined relative to a ground plane, be known from manufacturer information. With the known angle of the optical surface 114 and the position / location of the light source 110 can control 118 determine the light source angle L A. In some cases, the optical surface can have a curvature such that the relative angle to the light source can vary along the optical surface. In other words, one or more light sources can be detected and tracked, for example using camera-mediated detection of street lights and / or a device (such as the controller 118 ), which is configured to perform an indirect determination of light sources. For example, the controller can 118 Use localization (e.g. real-time positioning) and high-resolution maps to get a relative position of the light source 110 to the optical surface 114 to identify. Some embodiments may use light field data or weather data obtained from a resource.

Die Steuerung 118 kann dazu konfiguriert sein, das Vorhandensein von Streulicht auf der optischen Oberfläche 114 in Abhängigkeit von relativen Intensitäten von Objekten (z.B. Helligkeit/Dunkelheit) gegenüber dem Lichtquellenwinkel LA in Abhängigkeit von der Zeit über zwei oder mehr Bilder zu berechnen oder abzuleiten. Gemäß einigen Ausführungsformen können Streulichtbestimmungen unter Verwendung nur eines einzigen Bilds vorgenommen werden. Im Allgemeinen kann die Steuerung 118 dazu konfiguriert sein, die relativen Intensitäten von hellen und dunklen Objekten in Bildern gegenüber dem Lichtquellenwinkel LA im Zeitverlauf zu bestimmen. In Ausführungsformen, die sich auf die Verwendung eines einzelnen Bildes beziehen, kann die Steuerung 118 vorherige Daten einer Szene verwenden, wie zum Beispiel das Reflexionsvermögen eines Straßenschilds oder eines dunklen Himmels in der Nähe einer Lichtquelle. Die Steuerung 118 kann einen Dynamikbereich der Kamera, die Lichtquellengeometrie (z. B. Bildgrenze), die Lichtquellenintensität und/oder andere Parameter verwenden, um zu schätzen, dass die Lichtquelle bei dem gegenwärtigen Neigungswinkel Streulicht und Linsenreflexion (z. B. Zunahme der Leuchtstärke/Helligkeit in Abhängigkeit von dem Radius von dem Streulicht + Abhängigkeit von der Linsenreflexion, die von dem Radius und Winkel (aufgrund der Kamerasymmetrie) um die Lichtquelle abhängig ist) eines festen Ausmaßes produzieren würde. Wenn das Ausmaß an Streulicht/Linsenreflexion, z. B. der Radius der Intensitäts-/Helligkeitszunahme, größer ist, ist dies ein Hinweis auf eine optische Verschlechterung. Die Steuerung 118 kann auch dazu konfiguriert sein, aufgrund der Struktur (z. B. schnelle Fourier-Transformation (fast Fourier transform - FFT) der Linsenrefelxionsregion nach Umwandlung in ein Polarkoordinatensystem) zwischen den Streulicht- und Linsenrefexionsmodi zu unterscheiden.The control 118 can be configured to detect the presence of stray light on the optical surface 114 to calculate or derive over two or more images as a function of the relative intensities of objects (eg lightness / darkness) compared to the light source angle L A as a function of time. In accordance with some embodiments, light scatter determinations can be made using only a single image. In general, the controller can 118 be configured to determine the relative intensities of light and dark objects in images versus the light source angle L A over time. In embodiments relating to the use of a single image, the controller may 118 Use previous data from a scene, such as the reflectivity of a street sign or dark sky near a light source. The control 118 can be a dynamic range of the camera, the light source geometry (e.g. image border), the light source intensity and / or use other parameters to estimate that the light source at the current angle of inclination is scattered light and lens reflection (e.g. increase in luminosity / brightness depending on the radius of the scattered light + dependence on lens reflection, which is dependent on the radius and angle (due to the camera symmetry) around the light source) would produce a fixed amount. When the amount of flare / lens reflection, e.g. B. the radius of the intensity / brightness increase is larger, this is an indication of an optical deterioration. The control 118 can also be configured to distinguish between the scattered light and lens reflection modes based on the structure (e.g. fast Fourier transform (FFT) of the lens reflection region after conversion to a polar coordinate system).

In verschiedenen Ausführungsformen kann die Steuerung 118 dazu konfiguriert sein, ein erstes Objekt innerhalb eines interessierenden Bereichs zu verfolgen, das in Bildern des interessierenden Bereichs enthalten ist, die über einen Zeitraum durch einen Bildsensor (z. B. einen ersten Bildsensor 128) eines Fahrzeugs während einer Fahrzeugbewegung erhalten wurden. Die Steuerung 118 kann eine Lichtquelle innerhalb des interessierenden Bereichs verfolgen. Die Steuerung 118 kann ferner dazu konfiguriert sein, eine Änderung der relativen Reflexionsintensität des ersten Objekts auf Grundlage eines Lichtquellenwinkels zu bestimmen, der zwischen der Lichtquelle und einer optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird. Selbstverständlich gibt die Änderung der relativen Reflexionsintensität Streulicht der optischen Oberfläche an. In einigen Ausführungsformen kann die Steuerung 118 auch zwischen Objekten unterscheiden, die in einen Schatten gelangen, wie etwa Eintreten in das Fahrzeug, das in den Tunnel oder unter eine Überführung fährt. Die Beleuchtung auf dem Objekt kann sich ändern, sodass die Steuerung 118 dazu konfiguriert sein kann, zwischen konstanten Beleuchtungsbedingungen und variierenden Bedingungen zu unterscheiden.In various embodiments, the controller can 118 configured to track a first object within an area of interest contained in images of the area of interest captured over time by an image sensor (e.g., a first image sensor 128 ) of a vehicle were obtained while the vehicle was moving. The control 118 can track a light source within the area of interest. The control 118 may further be configured to determine a change in the relative reflection intensity of the first object based on a light source angle formed between the light source and an optical plane of an optical surface of the vehicle. Of course, the change in the relative reflection intensity indicates scattered light from the optical surface. In some embodiments, the controller may 118 also distinguish between objects that end up in a shadow, such as entering the vehicle entering the tunnel or under an overpass. The lighting on the object can change, so the controls 118 can be configured to distinguish between constant lighting conditions and varying conditions.

Tabelle 1 beinhaltet Spalten mit Werten, die aus einzelnen Bildern bestimmt wurden, die im Zeitverlauf erhalten wurden. Ein Kontrast einer Straßenoberfläche (z. B. erstes Objekt 106) und ein Kontrast einer Autostoßstange (z. B. zweites Objekt 108) werden über mehrere Bilder hinweg bewertet. Das relative Reflexionsvermögen, das als Kontraständerung bezeichnet wird, ist ebenfalls bereitgestellt. Diese Kontraständerung kann das Vorhandensein von Streulicht hinweisen. Somit kann, wenn keine relative Kontraständerung bestimmt wird, abgeleitet werden, dass kein Streulicht vorhanden ist. Während die 8-Bit-Bildintensitätswerte in Tabelle 1 verwendet werden, kann die Steuerung 118 ebenfalls die Lumineszenz des Objekts unter Kenntnis der Kamera-/ISP-Eigenschaften und -Einstellungen (z. B. Belichtung) berechnen. Tabelle 1 Road 220 217 218 228 211 Car bumper relative 52 108 116 138 140 change in contrast 0% 26% 29% 38% 42% % Difference 124% 67% 61% 49% 40% Table 1 includes columns with values determined from individual images obtained over time. A contrast of a road surface (e.g. first object 106 ) and a contrast of a car bumper (e.g. second object 108 ) are rated across multiple images. The relative reflectivity, referred to as the contrast change, is also provided. This change in contrast can indicate the presence of stray light. Thus, if no relative change in contrast is determined, it can be deduced that there is no scattered light. While using the 8-bit image intensity values in Table 1, the controller can 118 also calculate the luminescence of the object knowing the camera / ISP properties and settings (e.g. exposure). Table 1 Road 220 217 218 228 211 Car bumper relative 52 108 116 138 140 change in contrast 0% 26% 29% 38% 42% % Difference 124% 67% 61% 49% 40%

In Tabelle 1 wird abgeleitet, dass aufgrund des relativen Kontrastzunahme Streulicht auf der optischen Oberfläche vorhanden ist. Da sich der Kontrast für beide Objekte ändert, kann ferner bestätigt werden, dass Streulicht auf der optischen Oberfläche vorhanden ist. Es wird festgestellt, dass die Änderung des relativen Kontrasts zwischen den Objekten abnimmt, was auf Streulicht hinweist. Insbesondere wird weder die dunkle Autostoßstange reflektierender, noch hat sich der Photonenfluss der Stoßstange verändert, sondern vielmehr trägt Lichtstreuung aufgrund von Staub auf der Windschutzscheibe zunehmend zur gemessenen Bildintensität oder Luminanz in der Szene bei.In Table 1 it is derived that, due to the relative increase in contrast, scattered light is present on the optical surface. Further, since the contrast changes for both objects, it can be confirmed that there is scattered light on the optical surface. It is found that the change in the relative contrast between the objects decreases, which is indicative of stray light. In particular, neither the dark car bumper becomes more reflective nor has the photon flow of the bumper changed, but rather light scattering due to dust on the windshield increasingly contributes to the measured image intensity or luminance in the scene.

Zusätzlich können andere Rechenverfahren zum Bestimmen von Streulicht als das Verfolgen von Objekten und deren entsprechenden Bildintensitäten relativ zu den anderen erwähnten Parametern verwendet werden. Andere Beispiele können das Umwandeln des Bildes in ein Intensitätshistogramm und das Bereitstellen der anderen Parameter für ein neuronales Netz beinhalten. Alternativ kann einem neuronalen Netz, das wiederkehrende Faltungsschichten, Aufmerksamkeitsmechanismen usw. beinhalten kann, eine Eingabe, wie etwa Bilder, Intensität, Lichtquellenausrichtung und andere zuvor beschriebene Parameter, bereitgestellt werden. Ein derartiges neuronales Netz kann eine Karte der Größe des Streulichts über dem Bild ausgeben. Das Netz kann ferner eine Karte der Größe der Linsenreflexion in dem Bild, ein korrigiertes Bild ohne Streulicht oder andere Ausgaben (z. B. semantische Segmentierungskarte) bereitstellen. In einem anderen Beispiel können die Linsenreflexionsparameter durch das neuronale Netz ausgegeben werden, um eine Verschlechterung der Linsen- oder Sensoroptik zu detektieren, z. B. ein Versagen antireflektierender dünner Filme.In addition, computational methods other than tracking objects and their corresponding image intensities relative to the other parameters mentioned can be used to determine stray light. Other examples may include converting the image to an intensity histogram and providing the other parameters to a neural network. Alternatively, input, such as images, intensity, light source orientation, and other parameters previously described, may be provided to a neural network, which may include recurring convolutional layers, attention mechanisms, etc. Such a neural network can output a map of the size of the scattered light over the image. The network may also provide a map of the amount of lens reflection in the image, a corrected image with no flare, or other outputs (e.g., semantic segmentation map). In another example, the lens reflection parameters can be output by the neural network in order to detect deterioration in the lens or sensor optics, e.g. B. failure of anti-reflective thin films.

In einer anderen Ausführungsform kann die Steuerung 118 dazu konfiguriert sein, ein Histogramm der Intensität und/oder der Intensitätsgradienten relativ zu dem relativen Lichtquellenwinkel zu verwenden, um die Wirkungen von Streulicht zu bestimmen.In another embodiment, the controller 118 be configured to use a histogram of the intensity and / or the intensity gradients relative to the relative light source angle to determine the effects of stray light.

Im Allgemeinen kann die Steuerung 118 dazu konfiguriert sein, Änderungen der relativen Reflexionsintensität eines einzelnen Objekts oder einer Vielzahl von Objekten zu verfolgen, das/die in dem interessierenden Bereich 104 detektiert ist/sind. Die von der Steuerung 118 durchgeführte Streulichtbestimmung könnte ein Durchschnitt der relativen Reflexionsintensitäten über alle Objekte oder nur einen Teil der Objekte sein. Erneut werden die Änderungen der relativen Reflexionsintensität im Zeitverlauf relativ zum Lichtquellenwinkel LA vorgenommen und wie sich der Lichtquellenwinkel LA ebenfalls im Zeitverlauf ändert.In general, the controller can 118 be configured to track changes in the relative reflection intensity of a single object or a plurality of objects present in the area of interest 104 is / are detected. The one from the controller 118 The scattered light determination carried out could be an average of the relative reflection intensities over all objects or only some of the objects. Again, the changes in the relative reflection intensity are made in the course of time relative to the light source angle L A and how the light source angle L A also changes in the course of time.

In einigen Ausführungsformen kann die Steuerung 118 dazu konfiguriert sein, eine Analyse auf Pixelebene an Bildern durchzuführen, die durch den ersten Bildsensor 128 erhalten werden (siehe 3 als Beispiel). Streulicht, das einem Ausmaß an diffuser Beleuchtung aufgrund von Hindernissen 126 auf der optischen Oberfläche 114 entspricht, hängt von dem Staub-/Hindernisniveau und dem Lichtquellenwinkel LA unter der Annahme ab, dass alle anderen Variablen konstant gehalten werden. Andere Variablen oder Faktoren können Belichtung, Verstärkung, Objektausrichtung im Raum relativ zur Beleuchtungsquelle, Beleuchtungsniveau, Dynamikbereich, Mehrfachbelichtungseinstellungen, Auswirkungen von LED-Flimmern und so weiter sein. Wenn diese Variablen vorhanden sind, können einige Korrekturen erforderlich sein. Diese Korrekturen können eine Umwandlung des Helligkeitswerts in Leuchtstärke oder geschätztes Objektreflexionsvermögen in der Szene beinhalten. Zum Beispiel kann ein Objekt, wie etwa eine dunkle Stoßstange, den relativen Winkel zwischen der Lichtquelle, den Oberflächen des Objekts und der Kamera aufgrund einer Fahrzeugbewegung, z. B. Abbiegen, ändern. Auf Grundlage des Bildintensitätswerts oder der berechneten Leuchtstärke würde das Objekt plötzlich heller erscheinen. In der Realität kann die erhöhte Helligkeit aufgrund des Lambertschen Kosinusgesetzes vollständig erklärt werden, in dem eine von einer diffusen Oberfläche beobachtete Strahlungsintensität direkt proportional zum Kosinus des Winkels zwischen dem Betrachtungswinkel und dem Oberflächenwinkel sowie Änderungen des Photonenflusses ist (unter Annahme einer dominanten Punktlichtquelle wie der Sonne). Daher ist das Reflexionsvermögen konstant geblieben und die Zunahme der wahrgenommenen Objekthelligkeit kann aufgrund der vorstehend erwähnten physikalischen Effekte vollständig erklärt werden, anstatt durch zusätzliche Lichtstreuung aufgrund einer plötzlichen Zunahme von Staub auf der Optikoberfläche.In some embodiments, the controller may 118 configured to perform pixel-level analysis on images captured by the first image sensor 128 can be obtained (see 3 as an an example). Scattered light, which is an amount of diffuse lighting due to obstructions 126 on the optical surface 114 depends on the dust / obstacle level and the light source angle L A assuming that all other variables are kept constant. Other variables or factors can include exposure, gain, object orientation in space relative to the lighting source, lighting level, dynamic range, multiple exposure settings, effects of LED flicker, and so on. If these variables are present, some corrections may be needed. These corrections can include converting the brightness value into luminosity or estimated object reflectivity in the scene. For example, an object such as a dark bumper may change the relative angle between the light source, the surfaces of the object and the camera due to vehicle movement, e.g. B. Turn, change. Based on the image intensity value or the calculated luminosity, the object would suddenly appear brighter. In reality, the increased brightness can be fully explained due to Lambert's law of cosines, in which a radiation intensity observed from a diffuse surface is directly proportional to the cosine of the angle between the viewing angle and the surface angle, as well as changes in the photon flux (assuming a dominant point light source such as the sun ). Therefore, the reflectivity has remained constant and the increase in perceived object brightness can be fully explained due to the aforementioned physical effects, rather than additional light scattering due to a sudden increase in dust on the optical surface.

Selbstverständlich kann die lokale Position von Objekten, wie sie von der Kamera innerhalb des Einzelbilds aufgenommen wird, ein Faktor für nicht einheitliche Hindernisse 126 auf der optischen Oberfläche 114 sein. Zum Beispiel kann sich ein anderes Fahrzeug in einer senkrechten Richtung relativ zu der an dem Fahrzeug montierten Beobachtungskamera bewegen. Die Optikoberfläche kann Staub auf einer Seite des optischen Wegs aufweisen, z. B. der rechten Hälfte der Windschutzscheibe in der Region des optischen Wegs der Kamera. Diese lokalisierte Staubschicht ist unter Verwendung von Techniken des maschinellen Sehensmöglicherweise nicht direkt detektierbar (dies könnte auf viele Gründe zurückzuführen sein, wie etwa fehlende Merkmale, effektiv lichtdurchlässig und unscharf). Die Bildintensität des Objekts, die berechnete Leuchtstärke und das geschätzte Reflexionsvermögen können sich ändern, wenn sich das Objekt bewegt, sodass sich die Position von der linken Seite des Bildes, auf der die optische Oberfläche sauber ist, und zur rechten Seite des Bildes, auf der die optische Oberfläche lokal staubig ist, verschiebt. Im Fall eines dunklen Fahrzeugs würden die Pixel in dem Bild, das zu dem Fahrzeug gehört, über die Einzelbilder hinaus an Intensität und Leuchtstärke zunehmen, unter der Annahme, dass andere Faktoren konstant gehalten werden (z. B. Position des relativen Lichtquellenwinkels zur optischen Oberfläche der Kamera). Dieser Effekt wäre auf die größere Anzahl von Photonen zurückzuführen, die aufgrund der Lichtstreuung von der Staubschicht auf der optischen Oberfläche relativ zu der Anzahl der von der dunkel gefärbten Fahrzeugoberfläche reflektierten Photonen detektiert werden. Diese lokale Position kann von der Steuerung 118 verwendet werden, um durchschnittliche und lokale Hindernisse, wie etwa pro Pixel, Niveaus aufgrund von räumlich variierendem Streulicht zu identifizieren. Zum Beispiel ist in 3 (in Kombination mit 1) ein Bereich mit Streulicht 300 auf einer optischen Oberfläche 302 vorhanden. Dieses Streulicht 300 kann im Allgemeinen unter Verwendung der hierin beschriebenen Verfahren (z. B. in Abhängigkeit von relativen Intensitäten von Objekten (z. B. Helligkeit/Dunkelheit) gegenüber dem Lichtquellenwinkel LA im Zeitverlauf) identifiziert werden. Um genauere Details in Bezug auf das Hindernis oder andere Ursachen des Streulichts zu bestimmen, kann der Bereich mit Streulicht 300 auf dem Bild ferner auf Pixelebene bewertet werden. Das heißt, die Steuerung 118 kann einen Bereich 304 identifizieren, in dem das Hindernis bzw. die Hindernisse dichter ist/sind, im Vergleich zu Bereichen 306, in denen das Hindernis weniger dicht ist. Wie vorstehend angemerkt, führt dieser Unterschied zu räumlich variierendem Streulicht. Die Bereiche mit größerer Hindernisdichte oder -dicke können Streulicht erzeugen, das größer ist als Bereiche, in denen das Hindernis weniger dicht ist (z. B. wird mehr Licht auf der optischen Oberfläche gestreut). Es ist auch anzumerken, dass alle optischen Oberflächen, auch wenn sie frei von Hindernissen sind und keine Verschlechterung, wie z. B. Kratzer, aufweisen, ein gewisses Ausmaß an Lichtstreuung in Bezug auf den relativen Lichtquellenwinkel erzeugen. Zusätzliche Hindernisse und eine Verschlechterung der optischen Oberfläche erhöhen diese Lichtstreuung. Kurz gesagt, kann die Steuerung 118 dazu konfiguriert sein, Varianzen des Streulichts auf der optischen Oberfläche zu bestimmen sowie Positionen von Hindernissen auf der optischen Oberfläche auf Grundlage der Varianzen zu identifizieren. Die Steuerung 118 kann Varianzen auf Grundlage von Änderungen von beliebigen von einem Versatz, einer Größe oder einer funktionellen Form der Änderung der relativen Reflexionsintensitäten der Objekte bestimmen.Of course, the local position of objects as recorded by the camera within the single image can be a factor for non-uniform obstacles 126 on the optical surface 114 be. For example, another vehicle may move in a perpendicular direction relative to the viewing camera mounted on the vehicle. The optical surface may have dust on one side of the optical path, e.g. B. the right half of the windshield in the region of the optical path of the camera. This localized layer of dust may not be directly detectable using machine vision techniques (this could be due to many reasons, such as missing features, effectively translucent, and fuzzy). The object's image intensity, calculated luminosity, and estimated reflectivity may change as the object moves, so the position moves from the left side of the image where the optical surface is clean and the right side of the image where the the optical surface is locally dusty, shifts. In the case of a dark vehicle, the pixels in the image belonging to the vehicle would increase in intensity and luminosity beyond the individual images, assuming that other factors are kept constant (e.g. position of the relative light source angle to the optical surface the camera). This effect would be due to the larger number of photons which are detected due to the light scattering from the dust layer on the optical surface relative to the number of photons reflected from the darkly colored vehicle surface. This local position can be controlled by the controller 118 can be used to identify average and local obstacles, such as per pixel, levels due to spatially varying scattered light. For example, in 3 (in combination with 1 ) an area with scattered light 300 on an optical surface 302 available. This stray light 300 can generally be identified using the methods described herein (e.g. as a function of relative intensities of objects (e.g. lightness / darkness) versus the light source angle L A over time). In order to determine more precise details regarding the obstacle or other causes of the scattered light, the area with scattered light 300 on the image can also be evaluated at the pixel level. That is, the controls 118 can be an area 304 identify where the obstacle (s) is / are denser compared to areas 306 in which the obstacle is less dense. As noted above, this difference results in spatially varying scattered light. The areas of greater density or thickness of the obstacle may produce scattered light that is larger than areas where the obstacle is less dense (e.g. more light is scattered on the optical surface). It should also be noted that all optical surfaces, even if they are free of obstructions and none Deterioration, such as B. scratches, produce some amount of light scattering in relation to the relative light source angle. Additional obstacles and deterioration of the optical surface increase this light scattering. In short, the controller can 118 be configured to determine variances of the scattered light on the optical surface and to identify positions of obstacles on the optical surface based on the variances. The control 118 may determine variances based on changes in any of an offset, size, or functional form of change in the relative reflection intensities of the objects.

In einigen Ausführungsformen kann eine Krümmung der optischen Oberfläche berücksichtigt werden, wenn Streulichtbestimmungen vorgenommen werden. Das heißt, da das Streulicht vom Lichtquellenwinkel LA abhängig ist, können Unterschiede des Lichtquellenwinkels LA aufgrund einer Krümmung in der optischen Oberfläche eine Änderung des Streulichts verursachen, die nicht auf Variationen des Ausmaßes des Hindernisses zurückzuführen ist. Die Steuerung 118 kann diese Variationen des Lichtquellenwinkels LA in einigen Ausführungsformen ausgleichen.In some embodiments, a curvature of the optical surface can be taken into account when making stray light determinations. That is, since the scattered light is dependent on the light source angle L A , differences in the light source angle L A due to a curvature in the optical surface may cause a change in the scattered light that is not due to variations in the extent of the obstacle. The control 118 can compensate for these variations in light source angle L A in some embodiments.

Es versteht sich, dass Streulichtniveaus eine charakteristische Krümmung aufweisen können, wobei die Hindernisniveaus einen Versatz, eine Größe und/oder eine funktionelle Form der Änderung der relativen Objektintensitäten beeinflussen können. Diese Kurve kann in einem Labor oder in einem Straßentest mit bekannten Hindernisniveaus (z. B. Staub) auf der optischen Oberfläche gemessen werden. Somit kann eine Kurve oder eine relative Leistungsänderung durch die Steuerung 118 auf (ein) bekannte(s) Hindernisniveau(s) normalisiert werden. Zusätzlich können Linsenreflexänderungen mit Labortests korreliert werden. Zum Beispiel kann eine Linse in ihrem nominalen Zustand und nach Entfernen einer Antireflexionsbeschichtung gemessen werden, um die Zunahme oder Änderung der Linsenreflexion relativ zur relativen Ausrichtung der Lichtquelle zu messen.It goes without saying that scattered light levels can have a characteristic curvature, wherein the obstacle levels can influence an offset, a size and / or a functional form of the change in the relative object intensities. This curve can be measured in a laboratory or in a road test with known obstacle levels (e.g. dust) on the optical surface. Thus, a curve or a relative change in performance can be controlled by the control 118 normalized to a known obstacle level (s). In addition, changes in the lens reflex can be correlated with laboratory tests. For example, a lens can be measured in its nominal condition and after an anti-reflective coating has been removed to measure the increase or change in lens reflection relative to the relative orientation of the light source.

Gemäß einigen Ausführungsformen kann das Streulicht durch das Vorhandensein von Nebel in dem interessierenden Bereich 104 beeinflusst werden. Somit kann das Fahrzeug 102 in einigen Ausführungsformen einen Feuchtigkeitssensor 138 umfassen, der Daten erlangt, die auf das Vorhandensein von Nebel analysiert werden können. Ein Temperatursensor könnte in einigen Ausführungsformen auch verwendet werden, um die Wahrscheinlichkeit für das Vorhandensein von Nebel anzugeben. In anderen Ausführungsformen kann Nebel in dem interessierenden Bereich 104 bestimmt werden, indem die Steuerung 118 wetterbezogene Daten von einem Wetterdienst 144 erhält. Die Steuerung 118 kann über das Netz 115 durch ihre Kommunikationsschnittstelle 120 oder über eine V2X-Verbindung (Fahrzeug-zu-Alles) auf den Wetterdienst zugreifen.According to some embodiments, the scattered light can be caused by the presence of fog in the area of interest 104 to be influenced. Thus, the vehicle can 102 in some embodiments, a humidity sensor 138 which acquires data that can be analyzed for the presence of fog. A temperature sensor could also be used in some embodiments to indicate the likelihood of the presence of fog. In other embodiments, fog can be in the area of interest 104 be determined by the controller 118 weather-related data from a weather service 144 receives. The control 118 can over the network 115 through their communication interface 120 or access the weather service via a V2X connection (vehicle-to-everything).

Sobald Streulicht detektiert wurde, kann die Steuerung 118 dazu konfiguriert sein, als Reaktion auf das Streulicht eine Korrekturmaßnahme zu aktivieren. Eine Korrekturmaßnahme könnte die Aktivierung einer Reinigungsbaugruppe 140 des Fahrzeugs 102 beinhalten. Die Reinigungsbaugruppe 140 könnte zum Beispiel ein Scheibenwischersystem des Fahrzeugs 102 beinhalten, um das Abgeben von Scheibenwischerfluid sowie eine Aktivierung der Scheibenwischer zu beinhalten. Diese Korrekturmaßnahme kann das Streulicht reduzieren, indem mindestens ein Teil der Hindernisse 126 auf der optischen Oberfläche 114 entfernt wird. Selbstverständlich können beliebige verbleibende Hindernisse wahrscheinlich eine dauerhafte Verschlechterung der optischen Oberfläche 114 angeben.As soon as stray light has been detected, the control can 118 be configured to activate a corrective action in response to the stray light. Corrective action could be activating a cleaning assembly 140 of the vehicle 102 include. The cleaning assembly 140 could for example be a windshield wiper system of the vehicle 102 to include the delivery of wiper fluid and activation of the wipers. This corrective action can reduce the stray light by removing at least some of the obstacles 126 on the optical surface 114 Will get removed. Of course, any remaining obstacles are likely to cause permanent deterioration of the optical surface 114 specify.

In einem anderen Beispiel kann die Korrekturmaßnahme beinhalten, dass die Steuerung 118 ein Attribut oder einen Parameter eines erweiterten Fahrerassistenzsystems 142 oder eines autonomen Fahrzeugbetriebs modifiziert. Beispielsweise kann das erweiterte Fahrerassistenzsystem 142 eine Warnung oder Nachricht an einen Fahrer des Fahrzeugs 102 ausgeben, dass Streulicht detektiert wird und dass der Fahrer seine Scheibenwischer manuell aktivieren sollte, um die optische Oberfläche zu reinigen. In einem anderen Beispiel kann das erweiterte Fahrerassistenzsystem 142 verhindern, dass der Fahrer in Richtung des Streulichts fährt. In einem anderen Beispiel kann das erweiterte Fahrerassistenzsystem 142 eine Geschwindigkeit des Fahrzeugs 102 automatisch reduzieren, wenn Streulicht detektiert wird. Das Fahrzeug kann in einigen Szenarien auf Grundlage einer Größe des Streulichts angehalten werden. Jede dieser Optionen kann auch durch eine Funktion oder Steuerung eines autonomen Fahrzeugs oder ausgeführt werden. Außerdem könnte die Steuerung 118 anstelle einer Aktivierung eines Merkmals ein ADAS-Merkmal deaktivieren und dem Fahrer eine Nachricht oder Warnung über eine solche Änderung bereitstellen. Zum Beispiel kann die Steuerung 118 bewirken, dass das ADAS das Fahrzeug verlangsamt oder anhält.In another example, the corrective action may include the controller 118 an attribute or a parameter of an extended driver assistance system 142 or an autonomous vehicle operation. For example, the extended driver assistance system 142 a warning or message to a driver of the vehicle 102 output that stray light is detected and that the driver should activate his windshield wipers manually in order to clean the optical surface. In another example, the extended driver assistance system 142 prevent the driver from driving in the direction of the scattered light. In another example, the extended driver assistance system 142 a speed of the vehicle 102 automatically reduce when stray light is detected. The vehicle can be stopped based on an amount of the scattered light in some scenarios. Each of these options can also be carried out by a function or control of an autonomous vehicle or. In addition, the controller could 118 instead of activating a feature, deactivate an ADAS feature and provide the driver with a message or warning about such a change. For example, the controller can 118 cause the ADAS to slow down or stop the vehicle.

Die Steuerung 118 kann den Effekt der funktionellen Form von Streulicht oder Linsenreflexion auf ein Bild verwenden, um einen Teil der ursprünglichen Bildqualität zur Verwendung in einer Anzeige (hintere Rückfahrkamera) oder zur Verwendung im ADAS wiederherzustellen (Entfernung von Linsenreflextions-Ghosting-Effekten zum Reduzieren falsch positiver Ergebnisse beim maschinellen Sehen).The control 118 may use the effect of the functional form of flare or lens reflection on an image to restore some of the original image quality for use in a display (rear Rear view camera) or for use in ADAS (removal of lens reflection ghosting effects to reduce false positives in machine vision).

In einigen Ausführungsformen können die Prozesse zum Bestimmen von Streulicht verwendet werden, um eine Reinigungsprozedur zu verifizieren. Zum Beispiel kann die Steuerung 118, sobald die Steuerung 118 bestimmt hat, dass Streulicht vorhanden ist, und bewirkt hat, dass ein Reinigungsvorgang erfolgt, das Vorhandensein von Streulicht auf der optischen Oberfläche nach dem Reinigungsvorgang neu bewerten, um zu bestimmen, ob sich die Größe des Streulichts verändert hat. Das heißt, dass eine Größe des Streulichts zu einem ersten Zeitpunkt durch die Steuerung 118 bestimmt wird. Die Größe des Streulichts wird zu einem zweiten oder späteren Zeitpunkt durch die Steuerung 118 bestimmt. Wie vorstehend angemerkt, kann ein beliebiges verbleibendes Streulicht durch eine dauerhafte Beschädigung der optischen Oberfläche verursacht werden.In some embodiments, the processes for determining stray light can be used to verify a cleaning procedure. For example, the controller can 118 as soon as the controller 118 has determined that stray light is present and has caused a cleaning process to occur, reevaluate the presence of stray light on the optical surface after the cleaning process to determine whether the size of the stray light has changed. That is, a size of the scattered light at a first point in time by the controller 118 is determined. The size of the scattered light is determined by the controller at a second or later point in time 118 certainly. As noted above, any remaining stray light can be caused by permanent damage to the optical surface.

Allgemein ausgedrückt, kann die Steuerung die Wirksamkeit der Entfernung von Verunreinigungen/Hindernissen validieren, indem sie eine Änderung des Streulichts nach dem Entfernen von Verunreinigungen von der optischen Oberfläche 114 bestimmt. Wenn die Größe des Streulichts von dem ersten Zeitpunkt zu dem zweiten Zeitpunkt abnimmt, wird bestimmt, dass sich die Reinigungsprozedur auf das Streulicht ausgewirkt hat. Das Ausmaß dieser Auswirkung wird durch die prozentuale Änderung der Größe des Streulichts dargestellt, die sich vom ersten Zeitpunkt zum zweiten Zeitpunkt verringert. Wenn keine Änderung in der Größe des Streulichts aufgetreten ist, kann durch die Steuerung 118 abgeleitet werden, dass ein Fehler in der Reinigungsbaugruppe aufgetreten ist (z. B. funktionsunfähige Scheibenwischer oder fehlendes Wischerfluid).In general terms, the controller can validate the effectiveness of contaminant / obstacle removal by noting a change in the scattered light after contaminant / obstruction removal is removed from the optical surface 114 certainly. When the size of the flare light decreases from the first point in time to the second point in time, it is determined that the cleaning procedure has affected the flare light. The extent of this effect is represented by the percentage change in the size of the scattered light, which decreases from the first point in time to the second point in time. If no change in the size of the scattered light has occurred, the controller can do this 118 it can be deduced that a fault has occurred in the cleaning assembly (e.g. inoperative windshield wipers or missing wiper fluid).

Keine Änderung der Größe des Streulichts kann auch angeben, dass das Streulicht auf Hindernisse auf der Linse 132 des ersten Bildsensors 128 zurückzuführen ist. Eine Warnung oder Nachricht kann dem Fahrer durch ein Sprachbefehlssystem oder eine andere Mensch-Maschine-Schnittstelle präsentiert werden, dass die Linse 132 des ersten Bildsensors 128 überprüft und gereinigt werden sollte. Nachfolgende Bestimmungen von Änderungen der Größe des Streulichts können nach jedem iterativen Schritt durchgeführt werden, um zu bestimmen, ob eine Grundursache für das Streulicht detektiert und behoben wurde. In Fällen, in denen keine Grundursache identifiziert wird oder das Streulicht nicht behoben werden kann, kann die Steuerung 118 ableiten, dass die Hindernisse, die das Streulicht erzeugen, struktureller Natur sind und mit der optischen Oberfläche zusammenhängen. Zum Beispiel kann die optische Oberfläche zerkratzt oder angefressen sein. Warnmeldungen können auch so sein, dass sie den Fahrer darüber informieren, dass die optische Oberfläche beschädigt sein kann.No change in the size of the scattered light can also indicate that the scattered light hits obstacles on the lens 132 of the first image sensor 128 is due. A warning or message can be presented to the driver through a voice command system or other man-machine interface that the lens 132 of the first image sensor 128 should be checked and cleaned. Subsequent determinations of changes in the size of the scattered light can be made after each iterative step to determine whether a root cause for the scattered light has been detected and corrected. In cases where no root cause is identified or the stray light cannot be eliminated, the controller can 118 deduce that the obstacles that create the scattered light are structural in nature and are related to the optical surface. For example, the optical surface can be scratched or pitted. Warning messages can also be designed to inform the driver that the optical surface may be damaged.

Gemäß einigen Ausführungsformen kann Streulicht ein Hinweis auf eine Verschlechtere oder ein Versagen einer Beschichtung sein. Zum Beispiel wird erwartet, dass nach der Reinigungshandlung mit einem wasserbasierten Spray die sich bewegenden Wassertropfen Schmutz auf einer Linse oder einer Windschutzscheibe entfernen können. Wenn die Beschichtung versagt, können die Tröpfchen einen dünnen Wasserfilm bilden, der Verunreinigungen nicht so effektiv entfernt. Dies stellt ein weiteres Szenario dar, in dem das Streulicht nicht durch Reinigungsprozesse behoben wird.According to some embodiments, scattered light can be an indication of deterioration or failure of a coating. For example, it is expected that after the cleaning action with a water-based spray, the moving water droplets can remove dirt on a lens or windshield. If the coating fails, the droplets can form a thin film of water that is not as effective at removing contaminants. This is another scenario in which the stray light is not removed by cleaning processes.

In einem beispielhaften Anwendungsfall können Systeme, Vorrichtungen und Verfahren der vorliegenden Offenbarung für mehrere Kameratypen und -konfigurationen verwendet werden, wie etwa Kameras, die an einer AV-Tiara (z. B. Gehäuse oben auf einem Fahrzeug) montiert sind, nach vorn gerichtete Kameras, die hinter einer Windschutzscheibe montiert sind, nach hinten oder nach rechts und links gerichtete Kameras, die an Karosserieaußenstellen montiert sind, oder sogar Innen-/Fahrerüberwachungskameras. Zum Beispiel kann eine Kamera, die verwendet wird, um die Wachsamkeit des Fahrers zu überwachen, Streulicht der hinteren Glasoberfläche der Heckklappe des Autos/Trucks/SUVs detektieren. Wenn es detektiert wird, kann die Streulichtangabe verwendet werden, um die Reinigung des hinteren Glases automatisch zu aktivieren.In an exemplary use case, systems, devices, and methods of the present disclosure can be used for multiple camera types and configurations, such as cameras mounted on an AV tiara (e.g., housing on top of a vehicle), front-facing cameras that are mounted behind a windshield, rear or right and left facing cameras mounted on exterior body locations, or even indoor / driver surveillance cameras. For example, a camera used to monitor the driver's vigilance can detect stray light from the rear glass surface of the hatchback of the car / truck / SUV. If it is detected, the scattered light indicator can be used to automatically activate the cleaning of the rear glass.

Wie vorstehend angemerkt, kann die Steuerung 118 mit Daten programmiert werden, die unter Verwendung von Kontroll- oder Labortests erhalten werden. Diese Daten können als Vergleichswert verwendet werden. Zum Beispiel kann ein Labortest verwendet werden, um die Schwere des Streulichts mit dem Schmutzhindernisniveau zu korrelieren. Dies kann auch mit negativen Nicht-Streulicht-Effekten wie Unschärfe, einer Abnahme des Signal-Rausch-Verhältnisses (signal-to-noise ratio - SNR), einer Abnahme der Kontrastdetektionswahrscheinlichkeit (contrast detection probability - CDP) und/oder einer Abnahme der Modulationsübertragungsfunktion (modulation transfer function - MTF) relativ zu der Bildgebungsfähigkeit der Kamera korreliert werden.As noted above, the controller 118 programmed with data obtained using control or laboratory tests. This data can be used as a comparison value. For example, a laboratory test can be used to correlate the severity of the scattered light with the level of dirt obstacle. This can also result in negative non-scattered light effects such as blurring, a decrease in the signal-to-noise ratio (SNR), a decrease in the contrast detection probability (CDP) and / or a decrease in the modulation transfer function (modulation transfer function - MTF) can be correlated relative to the imaging capability of the camera.

Wie vorstehend angemerkt, kann das Fahrzeug 102 den ersten Bildsensor 128 und einen zweiten Bildsensor 131 beinhalten. Die Ausgabe dieser Sensoren kann als Gegenprüfung durch die Steuerung 118 verwendet werden. Das heißt, die Hauptursache des Streulichts, wie etwa eine Staubschicht, kann auf der Linse oder der Windschutzscheibe lokalisiert werden, kann lokalisiert werden. Oftmals sind bei AV-Anwendungen mehrere Kameras vorhanden, die Objektdetektion und Sensorfusion durchführen. Außerdem können andere Sensormodalitäten, die Licht detektieren, zusätzlich zu oder anstelle von Bildern/Fotos verwendet werden. Selbstverständlich können die offenbarten Verfahren an die Verwendung unter Verwendung von anderen Sensormodi (LIDAR, TOF-Kameras) angepasst werden, bei denen Umgebungsbeleuchtung abgebildet oder in eine Gleichung zum Messen der Reichweite aufgenommen werden kann. Außerdem kann Staub dazu beitragen, die Reichweite der Sensoren zu verringern oder den LIDAR-Strahl abzulenken (aktive Beleuchtung), wodurch die falsche Winkelposition im Raum gemessen wird, was zu Tiefenschätzungsfehlern führt. Das Vorhandensein von Streulicht würde die Wirksamkeit dieser Sensoren verringern. Hierin offenbarte Verfahren können verwendet werden, um solche Fehlermodi, wie Staub auf einem LIDAR-Gehäuse, unter Verwendung des Umgebungsbildgebungsmodus einiger LIDAR-/TOF-Kameras zu detektieren.As noted above, the vehicle can 102 the first image sensor 128 and a second image sensor 131 include. The output of these sensors can be cross-checked by the controller 118 be used. That is, the main cause of the scattered light such as a layer of dust can be located on the lens or the windshield, can be located. In AV applications there are often several cameras that perform object detection and sensor fusion. In addition, other sensor modalities that detect light can be used in addition to or instead of images / photos. Of course, the disclosed methods can be adapted for use using other sensor modes (LIDAR, TOF cameras) in which ambient lighting can be imaged or included in an equation for measuring the range. In addition, dust can help reduce the range of the sensors or deflect the lidar beam (active lighting), which causes the incorrect angular position to be measured in space, which leads to depth estimation errors. The presence of stray light would reduce the effectiveness of these sensors. Methods disclosed herein can be used to detect failure modes such as dust on a LIDAR housing using the environmental imaging mode of some LIDAR / TOF cameras.

Es würde erwartet werden, dass das Streulicht das Signal-Rausch-Verhältnis oder die Kontrasterdetektionswahrscheinlichkeit dieser Region des Sichtfelds der Kamera verringern würde, wodurch die Wahrscheinlichkeit für die Detektion, die korrekte Klassifizierung der Detektion oder die Fehlklassifizierung reduziert wird. Objekte, die in dem Sichtfeld der Kamera detektiert oder nicht detektiert wurden (relativ zu anderen überlappenden Bildsensoren 128/132), die gegenwärtig eine Staubschicht aufweist, die durch das Streulichtverfahren detektiert wird, können aufgegeben (oder in einigen Ausführungsformen beseitigt) werden und andere Sensordetektion von eingewandt können im Vergleich zum nominalen Sensorbtrieb während der Sensorfusion hervorgehoben werden.It would be expected that the scattered light would reduce the signal-to-noise ratio or the probability of contrast detection of that region of the field of view of the camera, thereby reducing the probability of the detection, the correct classification of the detection or the misclassification. Objects that were or were not detected in the camera's field of view (relative to other overlapping image sensors 128 / 132 ), which currently has a layer of dust detected by the scattered light method, can be abandoned (or eliminated in some embodiments) and other sensor detection of objection can be emphasized compared to the nominal sensor drive during sensor fusion.

Das heißt, der zweite Bildsensor 131 kann verwendet werden, um ein erstes Objekt innerhalb des interessierenden Bereichs zu verfolgen. Die Steuerung 118 kann dazu konfiguriert sein, durch den zweiten Bildsensor 131 bereitgestellte Bilder zu ignorieren, wenn das erste Objekt in den durch den zweiten Bildsensor 131 erzeugten Bildern nicht detektiert wird, das erste Objekt jedoch in den Bildern des interessierenden Bereichs detektiert wird, die durch den ersten Bildsensor 128 erhalten werden. Wenn mehrere Bildsensoren vorhanden sind, kann durch eine Vielzahl von Bildern, die von mehreren Bildsensoren bereitgestellt werden, zusätzliche Konfidenz gewonnen werden. Wenn Objekte nur in bestimmten Bildern vorhanden sind, kann die Steuerung 118 ableiten, dass die Position einiger eines Bildsensors derart ist, dass das Objekt in den durch den Bildsensor erzeugten Bildern nicht vorhanden ist oder dass eine Fehlerbedingung in Bezug auf den Bildsensor vorliegt.That is, the second image sensor 131 can be used to track a first object within the area of interest. The control 118 can be configured by the second image sensor 131 Ignore provided images when the first object is in by the second image sensor 131 generated images is not detected, but the first object is detected in the images of the region of interest, which by the first image sensor 128 can be obtained. If there are multiple image sensors, additional confidence can be gained through a multiplicity of images that are provided by multiple image sensors. If objects are only present in certain images, the control can 118 infer that the position of some of an image sensor is such that the object is not present in the images generated by the image sensor or that there is an error condition related to the image sensor.

Die Merkmale der vorliegenden Offenbarung können auf spezifische Szenarien angewendet werden, wie etwa wenn der/die Bildsensor(en) LIDAR beinhaltet/beinhalten. Zum Beispiel kann, wenn Streulicht aufgrund von Staub auf einem LIDAR-Gehäuse in Kombination mit der Position der Sonne (z. B. dem Lichtquellenwinkel) zunimmt, ein Grundrauschen des LIDAR-Sensors zunehmen. Dies würde das Signal-Rausch-Verhältnis (SNR) und die Detektionsfähigkeit bei größeren Entfernungen reduzieren. Die Steuerung 118 kann dazu konfiguriert sein, eine Lichtquellenposition nach einem beliebigen hierin offenbarten Verfahren zu bestimmen (andere Sensoren oder Kenntnisse der Fahrzeugausrichtung, der Tageszeit, der Position der Sonne und so weiter). Eine Bestimmung des Grundrauschens kann für jede Position des LIDAR-Gehäuses in Bezug auf den Lichtquellenwinkel der Lichtquelle durchgeführt werden. Eine derartige Anwendung der vorliegenden Offenbarung kann eine Verunreinigung auf dem LIDAR-Gehäuse (z. B. Staub) erkennen und eine Aktivierung von Reinigungssystemen ermöglichen.The features of the present disclosure can be applied to specific scenarios, such as when the image sensor (s) include LIDAR. For example, if stray light increases due to dust on a lidar package in combination with the position of the sun (e.g., light source angle), a noise floor of the lidar sensor may increase. This would reduce the signal-to-noise ratio (SNR) and the detection ability at greater distances. The control 118 may be configured to determine a light source position according to any method disclosed herein (other sensors or knowledge of vehicle orientation, time of day, position of the sun, and so on). A determination of the noise floor can be carried out for each position of the LIDAR housing in relation to the light source angle of the light source. Such application of the present disclosure can detect contamination on the lidar housing (e.g., dust) and enable cleaning systems to be activated.

Die STreulichtdetektiong kann auch bei Fahrvorgängen in der Nacht angewendet werden. Nun wird auf die 4A-4C Bezug genommen, die zusammen eine Umgebung veranschaulichen, in der Streulicht bei Fahrvorgängen in der Nacht detektiert werden kann. In 4A fährt ein Fahrzeug 400 nachts eine Straße 402 entlang, wobei eine dunkle Himmelsregion 404 vorhanden ist. Eine Straßenlaterne 406 (oder andere ähnliche Lichtquellen) ist vorhanden und beleuchtet einen Abschnitt der Straße 402. Im Allgemeinen erzeugt die Straßenlaterne 406 aufgrund von Linsenreflexionen und Hindernissen, die auf einer Windschutzscheibe des Fahrzeugs 400 vorhanden sind, eine Linsenreflexionsregion 408.Scattered light detection can also be used when driving at night. Now the 4A-4C Referred to, which together illustrate an environment in which stray light can be detected when driving at night. In 4A drives a vehicle 400 a street at night 402 along, being a dark region of the sky 404 is available. A street lamp 406 (or other similar light source) is present and illuminates a section of the road 402 . In general, the street lamp produces 406 due to lens reflections and obstructions on a vehicle windshield 400 are present, a lens reflection region 408 .

Wenn sich das Fahrzeug 400 der Straßenlaterne 406 in 4B nähert, wird die Linsenreflexionsregion 408 der Straßenlaterne 406 aufgrund einer Änderung eines Einfallswinkels (z. B. des Lichtquellenwinkels) zwischen der Straßenlaterne 406 und der Windschutzscheibe des Fahrzeugs 400 größer. Die Vergrößerung der Linsenreflexionsregion 408 kann auch teilweise auf Hindernisse auf der Windschutzscheibe des Fahrzeugs 400 zurückzuführen sein. Wenn sich das Fahrzeug 400 der Straßenlaterne 406 in 4C noch weiter nähert, wird die Linsenreflexionsregion 408 noch größer und wird deren Form unregelmäßiger. Diese Änderung der Größe/Form der Linsenreflexionsregion 408 basiert auf weiteren Änderungen des Einfallswinkels (z. B. des Lichtquellenwinkels) zwischen der Straßenlaterne 406 und der Windschutzscheibe des Fahrzeugs 400. In einigen Ausführungsformen kann ein Gradient der Linsenreflexionsregion 408 pro Pixel und relativ zu einer Entfernung von der Straßenlaterne 406 und dem Einfallswinkel (z. B. dem Lichtquellenwinkel) gemessen werden.When the vehicle 400 the street lamp 406 in 4B approaches, becomes the lens reflection region 408 the street lamp 406 due to a change in an angle of incidence (e.g., the light source angle) between the street lamp 406 and the windshield of the vehicle 400 greater. The enlargement of the lens reflection region 408 can also be partially due to obstacles on the windshield of the vehicle 400 be due. When the vehicle 400 the street lamp 406 in 4C approaches even further, becomes the lens reflective region 408 even larger and their shape becomes more irregular. This change in Size / shape of the lens reflection region 408 is based on further changes in the angle of incidence (e.g. the light source angle) between the street lamp 406 and the windshield of the vehicle 400 . In some embodiments, a gradient of the lens reflection region can be 408 per pixel and relative to a distance from the street light 406 and the angle of incidence (e.g. the light source angle) can be measured.

Einige Ausführungsformen offenbaren, dass die Prozesse zur Detektion und Korrektur von Streulicht auf Steuerungsebene durchgeführt werden. Andere Ausführungsformen können beinhalten, dass der Dienstanbieter 112 die Prozesse zur Detektion und/oder Korrektur von Streulicht durchführt. In einigen Ausführungsformen werden die hierin offenbarten Verfahren zur Detektion von Streulicht durch den Dienstanbieter 112 durchgeführt, während die Korrekturmaßnahmen auf Fahrzeugebene durch die Steuerung 118 umgesetzt werden. Allgemein kann die Steuerung 118 Bilder erhalten und an den Dienstanbieter 112 weiterleiten. Der Dienstanbieter 112 kann die Bilder verarbeiten, um Streulicht zu detektieren. Wenn Streulicht detektiert wird, kann der Dienstanbieter 112 eine Nachricht/ein Signal an die Steuerung 118 übertragen, um eine Korrekturmaßnahme zu aktivieren.Some embodiments disclose that the processes for detecting and correcting stray light are performed at the control plane. Other embodiments may include the service provider 112 carries out the processes for the detection and / or correction of scattered light. In some embodiments, the methods disclosed herein for the detection of stray light by the service provider 112 carried out while the corrective actions at the vehicle level by the controller 118 implemented. In general, the controller 118 Get pictures and send them to the service provider 112 hand off. The service provider 112 can process the images to detect stray light. If stray light is detected, the service provider can 112 a message / signal to the controller 118 transmitted to activate a corrective action.

5 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung. Das Verfahren beinhaltet im Allgemeinen einen Schritt 502 des Verfolgens eines ersten Objekts innerhalb von Bildern eines interessierenden Bereichs, die über einen Zeitraum durch einen Bildsensor eines Fahrzeugs während einer Fahrzeugbewegung erhalten wurden. Selbstverständlich können mehrere Objekte unter Verwendung eines oder mehrerer Bildsensoren über den gleichen Zeitraum verfolgt werden. 5 Figure 3 is a flow diagram of an exemplary method of the present disclosure. The process generally includes one step 502 tracking a first object within images of a region of interest obtained over a period of time by an image sensor of a vehicle during vehicle movement. Of course, several objects can be tracked over the same period of time using one or more image sensors.

Als Nächstes beinhaltet das Verfahren einen Schritt 504 des Verfolgens einer Lichtquelle innerhalb des interessierenden Bereichs. Das Verfolgen der Lichtquelle (wie etwa der Sonne oder einer Straßenlaterne) kann unter Verwendung der Bilder oder anhand von Positionsdaten des Fahrzeugs bewerkstelligt werden. Zum Beispiel kann eine Position der Sonne bestimmt werden, wenn eine Tageszeit, ein Fahrtrichtung des Fahrzeugs und ein Standort des Fahrzeugs bekannt sind.Next, the method includes a step 504 tracking a light source within the area of interest. Tracking of the light source (such as the sun or a street lamp) can be accomplished using the images or position data of the vehicle. For example, a position of the sun can be determined if a time of day, a direction of travel of the vehicle and a location of the vehicle are known.

Gemäß einigen Ausführungsformen kann das Verfahren einen Schritt 506 des Bestimmens einer Änderung der relativen Reflexionsintensität des ersten Objekts auf Grundlage eines Lichtquellenwinkels beinhalten, der zwischen der Lichtquelle und einer optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird. Selbstverständlich kann dieser Prozess das Bestimmen von Änderungen des Lichtquellenwinkels, der zwischen der Lichtquelle und der optischen Ebene gebildet wird, über den Zeitraum beinhalten. Tatsächlich gibt die Änderung der relativen Reflexionsintensität Streulicht der optischen Oberfläche an. Als Reaktion auf das Bestimmen, dass Streulicht vorhanden, kann das Verfahren einen Schritt 508 des Aktivierens einer Korrekturmaßnahme als Reaktion auf das Streulicht beinhalten. Wie vorstehend angemerkt, kann die Korrekturmaßnahme das Aktivieren einer Reinigungsbaugruppe des Fahrzeugs umfassen, um das Streulicht durch Entfernen von Verunreinigungen von der optischen Oberfläche zu reduzieren.According to some embodiments, the method can include a step 506 determining a change in relative reflection intensity of the first object based on a light source angle formed between the light source and an optical plane of an optical surface of the vehicle. Of course, this process can include determining changes in the light source angle formed between the light source and the optical plane over time. In fact, the change in the relative reflection intensity indicates scattered light from the optical surface. In response to determining that stray light is present, the method may include a step 508 of activating a corrective action in response to the stray light. As noted above, corrective action may include activating a cleaning assembly of the vehicle to reduce stray light by removing contaminants from the optical surface.

In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Bestandteil davon bilden und konkrete Umsetzungen darstellen, in denen die vorliegende Offenbarung praktisch umgesetzt werden kann. Es versteht sich, dass auch andere Umsetzungen genutzt und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, wobei jedoch nicht unbedingt jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten muss. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf die gleiche Ausführungsform. Ferner wird, wenn ein(e) konkrete(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, der Fachmann ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen erkennen, ob dies nun ausdrücklich beschrieben ist oder nicht.In the above disclosure, reference was made to the accompanying drawings, which form a part hereof and illustrate specific implementations in which the present disclosure may be practiced. It goes without saying that other implementations can also be used and structural changes can be made without departing from the scope of the present disclosure. References in the specification to “an embodiment,” “an exemplary embodiment,” “an exemplary embodiment,” etc. indicate that the described embodiment may include, but are not necessarily limited to, one particular feature, structure, or characteristic Embodiment must include that particular feature, structure or property. In addition, such formulations do not necessarily refer to the same embodiment. Further, when a particular feature, structure, or property is described in connection with an embodiment, those skilled in the art will recognize such a feature, structure, or property in connection with other embodiments, whether or not so is expressly described or not.

Umsetzungen der in dieser Schrift offenbarten Systeme, Geräte, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder nutzen, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie sie in dieser Schrift erörtert sind. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische und andere computerlesbare Medien zum Transportieren oder Speichern computerausführbarer Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, in denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Somit können Umsetzungen der vorliegenden Offenbarung beispielsweise und nicht einschränkend mindestens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.Implementations of the systems, devices, devices, and methods disclosed in this document may include or utilize a special purpose or general purpose computer that includes computer hardware, such as one or more processors and system memory, as discussed in this document. Implementations within the scope of the present disclosure may also include physical and other computer-readable media for transporting or storing computer-executable instructions and / or data structures. Such computer readable media can be any available media that can be accessed by a general purpose or special purpose computer system. Computer-readable media that store computer-executable instructions are computer storage media (devices). In the case of computer-readable media, the computer-executable instructions transport, they are transmission media. Thus, by way of example and not by way of limitation, implementations of the present disclosure may include at least two distinctly different types of computer readable media: computer storage media (devices) and transmission media.

Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - SSDs) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenwechselspeicher (phase-change memory - PCM), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.Computer storage media (devices) include RAM, ROM, EEPROM, CD-ROM, solid state drives (SSDs) (e.g., based on RAM), flash memory, phase-change memory (PCM), others Memory types, other optical disk storage, magnetic disk storage or other magnetic storage devices, or any other medium that can be used to store desired program code means in the form of computer-executable instructions or data structures, and that can be accessed by a general purpose or special purpose computer.

Eine Umsetzung der in dieser Schrift offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetz kommunizieren. Ein „Netz“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netz oder eine andere Kommunikationsverbindung (entweder festverdrahtet, drahtlos oder eine beliebige Kombination aus festverdrahtet oder drahtlos) an einen Computer übertragen oder einem Computer bereitgestellt werden, sieht der Computer die Verbindung zweckgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netz und/oder Datenverknüpfungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus dem Vorstehenden sollten ebenfalls im Umfang computerlesbarer Medien eingeschlossen sein.An implementation of the devices, systems and methods disclosed in this document can communicate via a computer network. A “network” is defined as one or more data connections that enable the transport of electronic data between computer systems and / or modules and / or other electronic devices. When information is transmitted or provided to a computer over a network or other communications link (either hardwired, wireless, or any combination of hardwired or wireless), the computer sees the connection as a transmission medium for the purpose. Transmission media can include a network and / or data links that can be used to carry desired program code means in the form of computer-executable instructions or data structures, and that can be accessed by a general purpose or special purpose computer. Combinations of the foregoing should also be included within the scope of computer readable media.

Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben worden ist, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen zum Umsetzen der Patentansprüche offenbart.Computer-executable instructions include, for example, instructions and data which, when executed on a processor, cause a general purpose computer, special purpose computer, or special processing device to perform a particular function or group of functions. The computer-executable instructions can be, for example, binary files, intermediate format instructions such as assembly language, or else source code. Although the subject matter has been described in language specific to structural features and / or methodological acts, it is to be understood that the subject matter defined in the appended claims is not necessarily limited to the features or acts described above. Rather, the features and acts described are disclosed as exemplary forms of implementing the claims.

Der Fachmann wird verstehen, dass die vorliegende Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen umgesetzt werden kann, zu denen Armaturenbrett-Fahrzeugcomputer, Personal Computer, Desktop-Computer, Laptop-Computer, Nachrichtenprozessoren, Handheld-Vorrichtungen, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netz-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und dergleichen gehören. Die Offenbarung kann zudem in Umgebungen mit verteilten Systemen umgesetzt werden, in denen sowohl lokale Computersysteme als auch Remote-Computersysteme, die durch ein Netz (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine beliebige Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen als auch in Remote-Speichervorrichtungen befinden.Those skilled in the art will understand that the present disclosure can be implemented in network computing environments with many types of computer system configurations, including dashboard vehicle computers, personal computers, desktop computers, laptop computers, message processors, handheld devices, multiprocessor systems, consumer electronics microprocessor-based or programmable consumer electronics, network PCs, minicomputers, mainframe computers, cell phones, PDAs, tablets, pagers, routers, switches, various storage devices, and the like. The disclosure can also be implemented in environments with distributed systems in which both local computer systems and remote computer systems that are connected by a network (either by hardwired data connections, wireless data connections or by any combination of hardwired and wireless data connections), tasks carry out. In a distributed systems environment, program modules can reside in both local and remote storage devices.

Ferner können gegebenenfalls die in dieser Schrift beschriebenen Funktionen in einem oder mehreren von Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten durchgeführt werden. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (application specific integrated circuits - ASICs) können zum Beispiel dazu programmiert sein, eines bzw. einen oder mehrere der in dieser Schrift beschriebenen Systeme und Vorgänge ausführen. Gewisse Ausdrücke, die in der gesamten Beschreibung und den Patentansprüchen verwendet werden, beziehen sich auf bestimmte Systemkomponenten. Für den Fachmann liegt es auf der Hand, dass die Komponenten mit anderen Benennungen bezeichnet werden können. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich der Benennung nach unterscheiden, nicht jedoch hinsichtlich ihrer Funktion.Furthermore, the functions described in this document can optionally be carried out in one or more of hardware, software, firmware, digital components or analog components. For example, one or more application specific integrated circuits (ASICs) may be programmed to perform one or more of the systems and operations described in this document. Certain terms that are used throughout the description and claims relate to specific system components. For the person skilled in the art it is obvious that the components can be referred to by other names. In this document, no distinction should be made between components that differ in terms of their names, but not in terms of their function.

Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um mindestens einen Teil ihrer Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind in dieser Schrift zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können auch in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem Fachmann auf dem bzw. den einschlägigen Gebiet(en) bekannt ist.It should be noted that the sensor embodiments discussed above may include computer hardware, software, firmware, or any combination thereof to perform at least a portion of their functions. For example, a sensor may include computer code configured to run on one or more processors and may include hardware logic circuitry / include electrical circuitry controlled by computer code. These exemplary devices are provided in this document for purposes of illustration and are not intended to be limiting. Embodiments of the present disclosure may also be implemented in other types of devices as known to those skilled in the relevant art (s).

Mindestens einige Ausführungsformen der vorliegenden Offenbarung sind auf Computerprogrammprodukte gerichtet worden, die derartige Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computerverwendbaren Medium gespeichert ist. At least some embodiments of the present disclosure have been directed to computer program products that include such logic (e.g., in the form of software) stored on any computer usable medium.

Derartige Software bewirkt, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, dass eine Vorrichtung wie in dieser Schrift beschrieben betrieben wird.Such software, when executed in one or more data processing devices, has the effect that a device is operated as described in this document.

Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben worden sind, versteht es sich, dass diese lediglich als Beispiele und nicht zur Einschränkung dargestellt worden sind. Der Fachmann auf dem einschlägigen Gebiet wird erkennen, dass verschiedene Änderungen bezüglich Form und Detail daran vorgenommen werden können, ohne vom Wesen und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten die Breite und der Umfang der vorliegenden Offenbarung nicht durch eine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt sein, sondern lediglich gemäß den folgenden Patentansprüchen und ihren Äquivalenten definiert werden. Die vorangehende Beschreibung ist zum Zwecke der Veranschaulichung und Beschreibung dargelegt worden. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die genau offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist anzumerken, dass eine beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridumsetzungen der vorliegenden Offenbarung zu bilden. Zum Beispiel können beliebige der Funktionen, die in Bezug auf eine bestimmte Vorrichtung oder Komponente beschrieben worden sind, durch eine andere Vorrichtung oder Komponente durchgeführt werden. Ferner können, wenngleich konkrete Vorrichtungseigenschaften beschrieben worden sind, Ausführungsformen der Offenbarung zahlreiche andere Vorrichtungseigenschaften betreffen. Ferner versteht es sich, dass, obwohl Ausführungsformen in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben worden sind, die Offenbarung nicht notwendigerweise auf die konkreten beschriebenen Merkmale oder Handlungen beschränkt ist. Die konkreten Merkmale und Handlungen sind vielmehr als veranschaulichende Formen zum Umsetzen der Ausführungsformen offenbart. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Umsetzungen diese nicht beinhalten können, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, nicht im Allgemeinen implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.While various embodiments of the present disclosure have been described above, it should be understood that these are presented as examples and not of limitation. Those skilled in the relevant art will recognize that various changes in form and detail can be made therein without departing from the spirit and scope of the present disclosure. Thus, the breadth and scope of the present disclosure should not be limited by any of the exemplary embodiments described above, but should be defined only in accordance with the following claims and their equivalents. The foregoing description has been presented for purposes of illustration and description. It does not claim to be complete and is not intended to limit the present disclosure to the precise form disclosed. Many modifications and variations are possible in light of the above teachings. It should also be noted that any or all of the foregoing alternative implementations can be used in any desired combination to form additional hybrid implementations of the present disclosure. For example, any of the functions described with respect to a particular device or component can be performed by a different device or component. Furthermore, while specific device properties have been described, embodiments of the disclosure may relate to numerous other device properties. Furthermore, it should be understood that although embodiments have been described in language specific to structural features and / or methodological acts, the disclosure is not necessarily limited to the specific features or acts described. Rather, the specific features and acts are disclosed as illustrative forms of implementing the embodiments. Formulations that express conditional relationships, such as “can”, “could”, “can” or “could”, among others, are generally intended to convey that certain embodiments could include certain features, elements and / or steps, whereas other implementations these cannot be included, unless something else is specifically stated or something else results from the context used in each case. Thus, such formulations expressing conditional relationships are not generally intended to imply that features, elements, and / or steps are required in any way for one or more embodiments.

Gemäß einer Ausführungsform der vorliegenden Erfindung ist die Sensorbaugruppe ferner dazu konfiguriert, Nebel innerhalb des interessierenden Bereichs zu detektieren.In accordance with an embodiment of the present invention, the sensor assembly is further configured to detect fog within the area of interest.

Gemäß einer Ausführungsform ist der Prozessor konfiguriert zum Verfolgen eines zweiten Objekts, wobei das zweite Objekt eine relative Reflexionsintensität aufweist, die sich von der relativen Reflexionsintensität des ersten Objekts unterscheidet.According to one embodiment, the processor is configured to track a second object, the second object having a relative reflection intensity that is different from the relative reflection intensity of the first object.

Gemäß einer Ausführungsform umfasst die Sensorbaugruppe ferner eine Light-Detection-and-Ranging(LIDAR)-Vorrichtung, ferner wobei der Prozessor ferner dazu konfiguriert ist, ein Grundrauschen für verschiedene Positionen eines Gehäuses der LIDAR-Vorrichtung relativ zum Lichtquellenwinkel zu berechnen.According to one embodiment, the sensor assembly further comprises a light detection and ranging (LIDAR) device, further wherein the processor is further configured to calculate a noise floor for various positions of a housing of the LIDAR device relative to the light source angle.

Gemäß einer Ausführungsform umfasst die Korrekturmaßnahme, dass der Prozessor ferner dazu konfiguriert ist, eine Reinigungsbaugruppe des Fahrzeugs zu aktivieren, um Verunreinigungen von der optischen Oberfläche zu entfernen.According to one embodiment, the corrective action includes the processor further configured to activate a cleaning assembly of the vehicle to remove contaminants from the optical surface.

Gemäß einer Ausführungsform ist die Sensorbaugruppe ferner dazu konfiguriert, das erste Objekt innerhalb des interessierenden Bereichs unter Verwendung eines ersten Bildsensors zu verfolgen, ferner wobei der Prozessor dazu konfiguriert ist, Bilder zu ignorieren, die von einem zweiten Bildsensor bereitgestellt werden, wenn das erste Objekt nicht in den Bildern detektiert wird, aber das erste Objekt in den Bildern des interessierenden Bereichs detektiert wird, die durch den ersten Bildsensor erhalten werden.In one embodiment, the sensor assembly is further configured to track the first object within the area of interest using a first image sensor, further wherein the processor is configured to ignore images provided by a second image sensor when the first object is not is detected in the images, but the first object is detected in the images of the region of interest obtained by the first image sensor.

Claims (15)

Verfahren, umfassend: Verfolgen eines ersten Objekts innerhalb von Bildern eines interessierenden Bereichs, die über einen Zeitraum durch einen Bildsensor eines Fahrzeugs während einer Fahrzeugbewegung erhalten wurden; Verfolgen einer Lichtquelle innerhalb des interessierenden Bereichs; Bestimmen einer Änderung der relativen Reflexionsintensität des ersten Objekts unter Verwendung der Bilder auf Grundlage eines Lichtquellenwinkels, der zwischen der Lichtquelle und einer optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird, wobei die Änderung der relativen Reflexionsintensität Streulicht oder Linsenreflexion der optischen Oberfläche angibt; und Aktivieren einer Korrekturmaßnahme als Reaktion auf das Streulicht oder die Linsenreflexion.Method comprising: Tracking a first object within images of a region of interest obtained over a period of time by an image sensor of a vehicle during vehicle movement; Tracking a light source within the area of interest; Determining a change in relative reflection intensity of the first object using the images based on a light source angle formed between the light source and an optical plane of an optical surface of the vehicle, the change in relative reflection intensity indicating stray light or lens reflection of the optical surface; and Activate a corrective action in response to the scattered light or lens reflection. Verfahren nach Anspruch 1, ferner umfassend Bestimmen von Änderungen des Lichtquellenwinkels über den Zeitraum.Procedure according to Claim 1 , further comprising determining changes in the light source angle over the period of time. Verfahren nach Anspruch 1, ferner umfassend Detektieren von Nebel innerhalb des interessierenden Bereichs.Procedure according to Claim 1 , further comprising detecting fog within the area of interest. Verfahren nach Anspruch 1, ferner umfassend Verfolgen eines zweiten Objekts, wobei das zweite Objekt eine relative Reflexionsintensität aufweist, die sich von der relativen Reflexionsintensität des ersten Objekts unterscheidet.Procedure according to Claim 1 , further comprising tracking a second object, the second object having a relative reflection intensity that is different from the relative reflection intensity of the first object. Verfahren nach Anspruch 4, ferner umfassend: Bestimmen von Varianzen des Streulichts auf der optischen Oberfläche; und Identifizieren von Positionen von Hindernissen auf der optischen Oberfläche auf Grundlage der Varianzen.Procedure according to Claim 4 , further comprising: determining variances of the scattered light on the optical surface; and identifying positions of obstacles on the optical surface based on the variances. Verfahren nach Anspruch 5, wobei die Varianzen auf Grundlage von Änderungen von einem beliebigen von einem Versatz, einer Größe oder einer funktionellen Form der Änderung der relativen Reflexionsintensitäten des ersten Objekts und des zweiten Objekts bestimmt werden.Procedure according to Claim 5 wherein the variances are determined based on changes in any of an offset, magnitude, or functional form of change in relative reflection intensities of the first object and the second object. Verfahren nach Anspruch 1, wobei die Korrekturmaßnahme Aktivieren einer Reinigungsbaugruppe des Fahrzeugs umfasst, um das Streulicht durch Entfernen von Verunreinigungen von der optischen Oberfläche zu reduzieren.Procedure according to Claim 1 wherein the corrective action comprises activating a cleaning assembly of the vehicle to reduce the stray light by removing contaminants from the optical surface. Verfahren nach Anspruch 1, ferner umfassend Validieren der Wirksamkeit der Verunreinigungsentfernung durch Bestimmen einer Änderung des Streulichts nach Entfernen von Verunreinigungen von der optischen Oberfläche.Procedure according to Claim 1 further comprising validating the effectiveness of contaminant removal by determining a change in scattered light after removing contaminants from the optical surface. Verfahren nach Anspruch 1, wobei die Korrekturmaßnahme Ändern eines Parameters eines erweiterten Fahrerassistenzsystems oder eines autonomen Fahrzeugbetriebs umfasst.Procedure according to Claim 1 wherein the corrective action comprises changing a parameter of an extended driver assistance system or an autonomous vehicle operation. Vorrichtung, umfassend: einen Prozessor; und einen Speicher zum Speichern von Anweisungen, wobei der Prozessor konfiguriert ist, um die Anweisungen zu Folgendem auszuführen: Verfolgen eines ersten Objekts innerhalb von Bildern eines interessierenden Bereichs, die über einen Zeitraum durch einen Bildsensor eines Fahrzeugs während einer Fahrzeugbewegung erhalten wurden; Verfolgen einer Lichtquelle innerhalb des interessierenden Bereichs; Bestimmen einer Änderung der relativen Reflexionsintensität des ersten Objekts auf Grundlage eines Lichtquellenwinkels, der zwischen der Lichtquelle und einer optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird, wobei die Änderung der relativen Reflexionsintensität Streulicht der optischen Oberfläche angibt; und Aktivieren einer Korrekturmaßnahme als Reaktion auf das Streulicht.Apparatus comprising: a processor; and a memory for storing instructions, the processor configured to carry out the instructions to: Tracking a first object within images of a region of interest obtained over a period of time by an image sensor of a vehicle during vehicle movement; Tracking a light source within the area of interest; Determining a change in the relative reflection intensity of the first object based on a light source angle formed between the light source and an optical plane of an optical surface of the vehicle, the change in the relative reflection intensity indicating stray light of the optical surface; and activating a corrective action in response to the stray light. Vorrichtung nach Anspruch 10, wobei der Prozessor Linsenreflexion unter Verwendung des Streulichts modelliert.Device according to Claim 10 , wherein the processor models lens reflection using the scattered light. Vorrichtung nach Anspruch 10, wobei der Prozessor ferner dazu konfiguriert ist, Nebel innerhalb des interessierenden Bereichs basierend auf einem beliebigen von einem Feuchtigkeitssensor des Fahrzeugs oder Wetterdaten, die von einem Wetterdatendienst über ein Netz empfangen werden, zu detektieren.Device according to Claim 10 wherein the processor is further configured to detect fog within the area of interest based on any of a humidity sensor of the vehicle or weather data received from a weather data service over a network. Vorrichtung nach Anspruch 10, wobei der Prozessor ferner zu Folgendem konfiguriert ist: Bestimmen von Varianzen des Streulichts auf der optischen Oberfläche; und Identifizieren von Positionen von Hindernissen auf der optischen Oberfläche auf Grundlage der Varianzen.Device according to Claim 10 wherein the processor is further configured to: determine variances of the scattered light on the optical surface; and identifying positions of obstacles on the optical surface based on the variances. Vorrichtung nach Anspruch 13, wobei der Prozessor die Varianzen auf Grundlage von Änderungen von einem beliebigen von einem Versatz, einer Größe oder einer funktionellen Form der Änderung der relativen Reflexionsintensitäten des ersten Objekts und des zweiten Objekts bestimmt.Device according to Claim 13 wherein the processor determines the variances based on changes in any of an offset, magnitude, or functional form of change in the relative reflection intensities of the first object and the second object. System, umfassend: eine Sensorbaugruppe zum: Verfolgen eines ersten Objekts innerhalb von Bildern eines interessierenden Bereichs, die über einen Zeitraum durch einen Bildsensor eines Fahrzeugs während einer Fahrzeugbewegung erhalten wurden; Verfolgen einer Lichtquelle innerhalb des interessierenden Bereichs; und Bestimmen von Änderungen eines Lichtquellenwinkels über den Zeitraum; und eine Steuerung, mit einem Prozessor und einem Speicher, wobei der Prozessor dazu konfiguriert ist, im Speicher gespeicherte Anweisungen auszuführen zum: Bestimmen einer Änderung der relativen Reflexionsintensität des ersten Objekts auf Grundlage des Lichtquellenwinkels, der zwischen der Lichtquelle und einer optischen Ebene einer optischen Oberfläche des Fahrzeugs gebildet wird, wobei die Änderung der relativen Reflexionsintensität Streulicht der optischen Oberfläche angibt; und Aktivieren einer Korrekturmaßnahme als Reaktion auf das Streulicht.System comprising: a sensor assembly for: Tracking a first object within images of a region of interest obtained over a period of time by an image sensor of a vehicle during vehicle movement; Tracking a light source within the area of interest; and Determining changes in a light source angle over time; and a controller, having a processor and a memory, the processor configured to execute instructions stored in the memory for: Determining a change in the relative reflection intensity of the first object based on the light source angle formed between the light source and an optical plane of an optical surface of the vehicle, the change in the relative reflection intensity indicating stray light of the optical surface; and Activate a corrective action in response to the stray light.
DE102020124044.9A 2019-09-16 2020-09-15 DETECTION AND CORRECTION OF AN OPTICAL SURFACE DEGRADATION Pending DE102020124044A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/571,381 US11100616B2 (en) 2019-09-16 2019-09-16 Optical surface degradation detection and remediation
US16/571,381 2019-09-16

Publications (1)

Publication Number Publication Date
DE102020124044A1 true DE102020124044A1 (en) 2021-03-18

Family

ID=74686686

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020124044.9A Pending DE102020124044A1 (en) 2019-09-16 2020-09-15 DETECTION AND CORRECTION OF AN OPTICAL SURFACE DEGRADATION

Country Status (3)

Country Link
US (1) US11100616B2 (en)
CN (1) CN112504996A (en)
DE (1) DE102020124044A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021112236A1 (en) 2021-05-11 2022-11-17 Zf Cv Systems Global Gmbh Motion detection method for detecting a movement in a vehicle, monitoring method by means of which a status of a monitor sensor can be checked and vehicle

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11241721B2 (en) * 2019-10-15 2022-02-08 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor cleaning system and sensor cleaning method for vehicle
US20220148221A1 (en) * 2020-11-12 2022-05-12 Argo AI, LLC Optical Device Validation
US11546523B2 (en) * 2020-12-23 2023-01-03 Denso Corporation Image processing system, in-vehicle camera system with image processing system, and vehicle with camera system
CN113312964A (en) * 2021-04-15 2021-08-27 浙江理工大学 Training method, detection method, device and medium for impurity detection model
US11613234B1 (en) * 2022-01-05 2023-03-28 GM Global Technology Operations LLC System and method of automatically activating windshield wiper of a vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172192B2 (en) * 2018-12-27 2021-11-09 Waymo Llc Identifying defects in optical detector systems based on extent of stray light

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021112236A1 (en) 2021-05-11 2022-11-17 Zf Cv Systems Global Gmbh Motion detection method for detecting a movement in a vehicle, monitoring method by means of which a status of a monitor sensor can be checked and vehicle

Also Published As

Publication number Publication date
US11100616B2 (en) 2021-08-24
US20210082090A1 (en) 2021-03-18
CN112504996A (en) 2021-03-16

Similar Documents

Publication Publication Date Title
DE102020124044A1 (en) DETECTION AND CORRECTION OF AN OPTICAL SURFACE DEGRADATION
DE102016216118B4 (en) Object recognition device and stain detection method
DE102011121627B4 (en) A method of dynamically aligning a graphic on a driving scene of a vehicle using a substantially transparent windshield head-up display
DE102007000420B4 (en) In-vehicle device for detecting vehicles and device for controlling headlamps by using the device
DE102015218704A1 (en) Systems and methods for detecting obstacles within the field of view of an image sensor
DE102007043164B4 (en) Nebula detection device for motor vehicles
DE102008003948A1 (en) An apparatus for determining the presence of fog using an image obtained by a vehicle-mounted imaging device
DE102010030616A1 (en) Method and device for detecting a disturbing object in a camera image
DE102011109440A1 (en) Method for adjusting and / or calibrating at least one headlight of a vehicle
DE102014209197A1 (en) Apparatus and method for detecting precipitation for a motor vehicle
DE102019132897A1 (en) VEHICLE SENSOR CALIBRATION
WO2014139783A1 (en) Method and device for determining a visual range in daytime fog
DE102014208271A1 (en) Method and apparatus for image based vision estimation
DE102019125166A1 (en) SENSOR SOIL DETECTION
DE102010039092B4 (en) Method and control device for determining a distance between an object and a vehicle
DE102021103777A1 (en) ROAD MARKER DETECTION
DE102020104695A1 (en) DETECTION OF BLOCKING OF LIGHTING DEVICES
WO2022128014A1 (en) Correction of images from a panoramic-view camera system in the case of rain, incident light and contamination
DE102019205962A1 (en) Method for generating digital image pairs as training data for neural networks
DE102020115997A1 (en) VEHICLE SENSOR IMPROVEMENTS
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
DE102020109997A1 (en) System and method for taking reliable stitched images
DE102020105059A1 (en) DETERMINATION OF THE BLOCKING OF A LIGHTING DEVICE BY KNOWN OPTICAL CHARACTERISTICS
DE102014208272A1 (en) Method and apparatus for tracking-based visibility estimation
DE102018216983B3 (en) Method for suppressing images of reflections in at least one camera image of a camera of an environmental sensor device of a motor vehicle and corresponding environment sensor device

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000