DE102020105059A1 - Bestimmung der blockierung einer beleuchtungseinrichtung durch bekannte optische eigenschaften - Google Patents

Bestimmung der blockierung einer beleuchtungseinrichtung durch bekannte optische eigenschaften Download PDF

Info

Publication number
DE102020105059A1
DE102020105059A1 DE102020105059.3A DE102020105059A DE102020105059A1 DE 102020105059 A1 DE102020105059 A1 DE 102020105059A1 DE 102020105059 A DE102020105059 A DE 102020105059A DE 102020105059 A1 DE102020105059 A1 DE 102020105059A1
Authority
DE
Germany
Prior art keywords
lighting device
luminance
vehicle
computer
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020105059.3A
Other languages
English (en)
Inventor
David Michael Herman
Ashwin Arunmozhi
Venkatesh Krishnan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020105059A1 publication Critical patent/DE102020105059A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • B60S1/566Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens including wiping devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

Die Offenbarung stellt eine Bestimmung der Blockierung einer Beleuchtungseinrichtung durch bekannte optische Eigenschaften bereit. Ein Fahrzeug beinhaltet einen Bildsensor mit einem Sichtfeld, eine Beleuchtungseinrichtung, die auf das Sichtfeld gerichtet ist, und einen Computer, der einen Prozessor und einen Speicher beinhaltet, der Anweisungen speichert, die durch den Prozessor ausgeführt werden können. Der Computer ist so programmiert, dass er ein Objekt außerhalb des Fahrzeugs beleuchtet; bestimmt, dass das Objekt eine bekannte optische Eigenschaft aufweist; die optische Eigenschaft des Objekts aus einer Datenbank bestimmt; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts berechnet; und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anpasst.

Description

  • TECHNISCHES GEBIET
  • Die Erfindung betrifft ein Fahrzeug, das einen Bildsensor mit einem Sichtfeld, eine Beleuchtungseinrichtung, die auf das Sichtfeld gerichtet ist, und einen Computer beinhaltet, der einen Prozessor und einen Speicher beinhaltet, der Anweisungen speichert, die durch den Prozessor ausgeführt werden können. Der Computer ist so programmiert, dass er ein Objekt außerhalb des Fahrzeugs beleuchtet; bestimmt, dass das Objekt eine bekannte optische Eigenschaft aufweist, die optische Eigenschaft des Objekts aus einer Datenbank bestimmt; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts berechnet; und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anpasst.
  • ALLGEMEINER STAND DER TECHNIK
  • Autonome Fahrzeuge beinhalten eine oder mehrere Vorrichtungen zum Detektieren einer das Fahrzeug umgebenden Szene. Das Fahrzeug steuert seine Lenkung, Bremsung, Beschleunigung usw. basierend auf der detektierten Szene autonom. Als ein Beispiel kann das Fahrzeug einen oder mehrere Bildsensoren, z. B. Nahfeldkameras, beinhalten.
  • Das Fahrzeug kann eine Beleuchtungseinrichtung zum Beleuchten des Sichtfelds des Bildsensors enthalten. Die Beleuchtungseinrichtung kann Licht emittieren, das für das menschliche Auge nicht sichtbar ist, z. B. Infrarotlicht. Die Beleuchtungseinrichtung enthält eine Lichtquelle, die das Licht erzeugt, z. B. eine Leuchtdiode (light emitting diode - LED). Die Beleuchtungseinrichtung kann auch eine Linse enthalten, welche die Lichtquelle und andere Komponenten der Beleuchtungseinrichtung vor Blockierungen, z. B. Schmutz, Staub, Schlamm, Regen, Schnee usw., schützt. Licht wird von der Lichtquelle durch die Linse zum Sichtfeld des Bildsensors emittiert.
  • Aktuelle Verfahren sind bekannt, um Blockierungen auf der Linse des Bildsensors zu bestimmen und die identifizierten Blockierungen zu reinigen. Blockierungen auf der Linse der Beleuchtungseinrichtung verringern jedoch die Menge des erzeugten Lichts, die das Sichtfeld erreicht, und verschlechtern die Bildqualität. Die Möglichkeit, Blockierungen auf der Linse der Beleuchtungseinrichtung zu berücksichtigen, verbleibt.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Ein Fahrzeug beinhaltet einen Bildsensor mit einem Sichtfeld, eine Beleuchtungseinrichtung, die auf das Sichtfeld gerichtet ist, und einen Computer, der einen Prozessor und einen Speicher beinhaltet, der Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um ein Objekt außerhalb des Fahrzeugs zu beleuchten, zu bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist, die optische Eigenschaft des Objekts aus einer Datenbank zu bestimmen, die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts zu berechnen, und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anzupassen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um die Beleuchtungseinrichtung durch Reinigen einer Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anzupassen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer anzupassen, wenn die Luminanz unter dem Schwellenwert liegt.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um die Geometrie des Objekts zu bestimmen und einen Typ des Objekts basierend auf der Geometrie zu bestimmen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um die Form des Objekts zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um den Abstand zwischen dem Objekt und der Beleuchtungseinrichtung und/oder die Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung zu berechnen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um ein Bild des Objekts während der Beleuchtung aufzunehmen.
  • Ein System beinhaltet einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um ein Objekt außerhalb eines Fahrzeugs mit einer Beleuchtungseinrichtung zu beleuchten, zu bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist, die optische Eigenschaft des Objekts aus einer Datenbank zu bestimmen, die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts zu berechnen, und eine Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung zu reinigen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und die Linse der Beleuchtungseinrichtung zu reinigen, wenn die Luminanz unter dem Schwellenwert liegt.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um die Geometrie des Objekts zu bestimmen und einen Typ des Objekts basierend auf der Geometrie des Objekts zu bestimmen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um die Form des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  • Der Speicher kann Anweisungen speichern, die ausgeführt werden können, um den Abstand zwischen dem Objekt und der Beleuchtungseinrichtung und/oder die Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung zu berechnen.
  • Ein Verfahren beinhaltet Beleuchten eines Objekts, Bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist, Bestimmen der optischen Eigenschaft des Objekts aus einer Datenbank, Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts, und Anpassen von mindestens einem von der Beleuchtungseinrichtung, einem Bildsensor und einem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung.
  • Anpassen der Beleuchtungseinrichtung kann Reinigen einer Linse der Beleuchtungseinrichtung beinhalten.
  • Bestimmen eines Typs des Objekts kann Bestimmen der Geometrie des Objekts beinhalten.
  • Das Verfahren kann Vergleichen der Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert und Reinigen der Linse der Beleuchtungseinrichtung, wenn die Luminanz unter dem Schwellenwert liegt, beinhalten.
  • Das Verfahren kann Bestimmen der Form des Objekts und Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form beinhalten.
  • Der Computer kann Bestimmen des Abstands zwischen dem Objekt und der Beleuchtungseinrichtung und/oder der Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung und Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung beinhalten.
  • Figurenliste
    • 1 ist eine perspektivische Ansicht eines Fahrzeugs, das einen Bildsensor und eine Beleuchtungseinrichtung beinhaltet, wobei die Beleuchtungseinrichtung nicht mit Leistung versorgt ist und eine Straßenlampe Licht emittiert.
    • 2 ist eine perspektivische Ansicht des Fahrzeugs mit der Beleuchtungseinrichtung bei voller Leistung.
    • 3 ist eine perspektivische Ansicht des Fahrzeugs mit einer Beleuchtungseinrichtung, die eine Fahrspurmarkierung beleuchtet, und einer anderen Beleuchtungseinrichtung, die ein Verkehrszeichen beleuchtet.
    • 4 ist ein Blockdiagramm eines Systems des Fahrzeugs.
    • 5 ist ein Ablaufdiagramm eines durch das System ausgeführten Verfahrens.
  • DETAILLIERTE BESCHREIBUNG
  • Ein Fahrzeug beinhaltet einen Bildsensor mit einem Sichtfeld, eine Beleuchtungseinrichtung, die auf das Sichtfeld gerichtet ist, und einen Computer, der einen Prozessor und einen Speicher beinhaltet, der Anweisungen speichert, die durch den Prozessor ausgeführt werden können. Die Anweisungen können durch den Prozessor ausgeführt werden, sodass er ein Objekt außerhalb des Fahrzeugs beleuchtet; bestimmt, dass das Objekt eine bekannte optische Eigenschaft aufweist, die optische Eigenschaft des Objekts aus einer Datenbank bestimmt; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts berechnet; und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anpasst.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um die Beleuchtungseinrichtung durch Reinigen einer Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anzupassen. Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer anzupassen, wenn die Luminanz unter dem Schwellenwert liegt.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um die Geometrie des Objekts zu bestimmen und einen Typ des Objekts basierend auf der Geometrie zu bestimmen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um die Form des Objekts zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um den Abstand zwischen dem Objekt und der Beleuchtungseinrichtung und/oder die Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung zu berechnen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um ein Bild des Objekts während der Beleuchtung aufzunehmen.
  • Ein System kann einen Computer beinhalten, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um ein Objekt außerhalb eines Fahrzeugs mit einer Beleuchtungseinrichtung zu beleuchten; zu bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; die optische Eigenschaft des Objekts aus einer Datenbank zu bestimmen; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts zu berechnen; und eine Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung zu reinigen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und die Linse der Beleuchtungseinrichtung zu reinigen, wenn die Luminanz unter dem Schwellenwert liegt.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um die Geometrie des Objekts zu bestimmen und einen Typ des Objekts basierend auf der Geometrie des Objekts zu bestimmen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um die Form des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  • Der Speicher kann weitere Anweisungen speichern, die ausgeführt werden können, um den Abstand zwischen dem Objekt und der Beleuchtungseinrichtung und/oder die Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung zu berechnen.
  • Ein Verfahren beinhaltet Beleuchten eines Objekts; Bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; Bestimmen der optischen Eigenschaft des Objekts aus einer Datenbank; Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts; und Anpassen von mindestens einem von der Beleuchtungseinrichtung, einem Bildsensor und einem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung.
  • Anpassen der Beleuchtungseinrichtung kann Reinigen einer Linse der Beleuchtungseinrichtung beinhalten.
  • Bestimmen eines Typs des Objekts kann Bestimmen der Geometrie des Objekts beinhalten.
  • Das Verfahren kann Vergleichen der Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert und Reinigen der Linse der Beleuchtungseinrichtung, wenn die Luminanz unter dem Schwellenwert liegt, beinhalten.
  • Das Verfahren kann Bestimmen der Form des Objekts und Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form beinhalten.
  • Das Verfahren kann Bestimmen des Abstands zwischen dem Objekt und der Beleuchtungseinrichtung und/oder der Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung und Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung beinhalten.
  • Unter Bezugnahme auf die Figuren, in denen gleiche Bezugszeichen in den verschiedenen Ansichten gleiche Teile bezeichnen, beinhaltet ein Fahrzeug 10 ein System, das einen Bildsensor 12 mit einem Sichtfeld und eine Beleuchtungseinrichtung 14, die auf das Sichtfeld gerichtet ist, beinhaltet. Das System des Fahrzeugs 10 beinhaltet einen Computer 16 mit einem Prozessor und einem Speicher, der Anweisungen speichert, die durch den Prozessor ausgeführt werden können. Der Computer 16 ist so programmiert, dass er ein Objekt 18 außerhalb des Fahrzeugs 10 beleuchtet; bestimmt, dass das Objekt 18 eine bekannte optische Eigenschaft aufweist, die optische Eigenschaft des Objekts 18 aus einer Datenbank bestimmt; die Luminanz der Beleuchtungseinrichtung 14 mindestens basierend auf der optischen Eigenschaft des Objekts 18 berechnet; und mindestens eines von der Beleuchtungseinrichtung 14, dem Bildsensor 12 und dem Computer 16 mindestens basierend auf der Luminanz der Beleuchtungseinrichtung 14 anpasst.
  • Die optische Eigenschaft verschiedener Objekte 18 und/oder verschiedene Typen von Objekten 18 können vorbestimmt und in der Datenbank gespeichert sein, wie nachstehend beschrieben wird. Nachdem bestimmt wurde, dass das Objekt 18 eine bekannte optische Eigenschaft aufweist, z. B. basierend auf dem Bild des Objekts 18 und/oder einer HD-Karte, wird auf die Datenbank zugegriffen, um die optische Eigenschaft des Objekts 18 zu bestimmen, z. B., wie nachstehend beschrieben, Objekterkennung aus Sensordaten und/oder Lokalisierungs- und HD-Kartendaten usw. Diese optische Eigenschaft wird dann verwendet, um die Luminanz der Beleuchtungseinrichtung 14 zu berechnen. Anders ausgedrückt, wird die Luminanz der Beleuchtungseinrichtung 14 basierend auf der bekannten optischen Eigenschaft (z. B. Komponenten mit diffuser Reflektivität, Retroreflektivität und spiegelnder Reflektivität) des Typs des Objekts 18 berechnet. Wie weiter unten erörtert, kann/können die Position und/oder Ausrichtung des Objekts 18 relativ zu dem Lichtsensor 12 und/oder der Beleuchtungseinrichtung 14 auch verwendet werden, um die Luminanz der Beleuchtungseinrichtung 14 zu berechnen. Diese Berechnung der Luminanz der Beleuchtungseinrichtung 14 kann dann verwendet werden, um zu bestimmen, ob das System aufgrund einer Blockade der Beleuchtungseinrichtung 14, z. B. einer Blockierung an einer Linse 20 der Beleuchtungseinrichtung 14, angepasst werden sollte. Als ein Beispiel kann die Linse 20 der Beleuchtungseinrichtung 14 gereinigt werden.
  • Das Fahrzeug 10 kann ein beliebiges Personen- oder Nutzkraftfahrzeug sein, wie etwa ein Auto, ein Truck, eine Geländelimousine, ein Crossover-Fahrzeug, ein Van, ein Minivan, ein Taxi, ein Bus usw. Das Fahrzeug kann ein autonomes Fahrzeug sein. Ein Computer kann dazu programmiert sein, das Fahrzeug 10 vollständig oder in geringerem Maße unabhängig von dem Eingreifen eines menschlichen Fahrers zu betreiben. Der Computer kann dazu programmiert sein, den Antrieb, das Bremssystem, die Lenkung und/oder andere Fahrzeugsysteme zu betreiben. Für die Zwecke dieser Offenbarung ist unter einem autonomen Betrieb zu verstehen, dass der Computer den Antrieb, das Bremssystem und die Lenkung steuert; ist unter einem halbautonomen Betrieb zu verstehen, dass der Computer ein oder zwei von dem Antrieb, dem Bremssystem und der Lenkung steuert und ein menschlicher Fahrer den Rest steuert; und ist unter einem nichtautonomen Betrieb zu verstehen, dass der menschliche Fahrer den Antrieb, das Bremssystem und die Lenkung steuert.
  • Das Fahrzeug 10 enthält den Bildsensor 12 mit einem Sichtfeld und eine Beleuchtungseinrichtung 14, die auf das Sichtfeld gerichtet ist. Der Bildsensor 12 und die Beleuchtungseinrichtung 14 können aneinander angrenzen, wie in den 1 bis 3 gezeigt, oder können voneinander beabstandet sein. Die Beleuchtungseinrichtung 14 weist eine Linse 20 auf und der Bildsensor 12 weist eine Linse 22 auf. Die Linse 20 der Beleuchtungseinrichtung 14 und die Linse 22 des Bildsensors 12 können voneinander getrennt sein. Als ein anderes Beispiel können sich der Bildsensor 12 und die Beleuchtungseinrichtung 14 eine gemeinsame Linse teilen (in den 1 bis 3 mit 20, 22 identifiziert). Der Bildsensor 12 und/oder die Beleuchtungseinrichtung 14 kann/können sich an einer beliebigen geeigneten Stelle am Fahrzeug 10 befinden, z. B. an einem seitlichen Karosserieblech, einem Dach usw.
  • Der Bildsensor 12 kann beliebiger Typ eines Bildsensors sein. Als ein Beispiel kann der Bildsensor 12 eine Digitalkamera sein, zum Beispiel eine Nahfeldkamera. In anderen Beispielen kann der Bildsensor 12 ein Lidarsensor (z. B. Flash-Lidar), eine Laufzeitkamera usw. sein. Der Bildsensor 12 ist konfiguriert, um ein Bild der Szene außerhalb des Fahrzeugs 10 aufzunehmen.
  • Die Beleuchtungseinrichtung 14 ist konfiguriert, um die Szene außerhalb des Fahrzeugs 10 zu beleuchten, um das von dem Bildsensor 12 aufgenommene Bild zu beleuchten. Die Beleuchtungseinrichtung 14 kann beispielsweise Infrarotlicht emittieren. Die Beleuchtungseinrichtung 14 weist eine Lichtquelle auf, die beispielsweise eine LED-Lichtquelle sein kann. Die Beleuchtungseinrichtung 14 kann Licht konstant emittieren oder kann Lichtblitze emittieren, z. B. für Flash-Lidar. Die Beleuchtungseinrichtung 14 kann ein bekanntes Lichtmuster emittieren und kann in einem solchen Beispiel von dem Bildsensor 12 beabstandet sein, d. h. an einem anderen Betrachtungspunkt. Anders ausgedrückt, kann die Beleuchtungseinrichtung 14 strukturiertes Licht emittieren. Die Beleuchtungseinrichtung 14 kann konfiguriert sein, um Objekte 18 in der Szene außerhalb des Fahrzeugs 10 zu beleuchten, z. B. Verkehrszeichen, Fahrspurmarkierungen, Straßenschilder, Bäume, Gras, Büsche, und der Bildsensor 12 ist konfiguriert, um ein Bild der Szene aufzunehmen, die durch die Beleuchtungseinrichtung 14 beleuchtet wird.
  • Das Fahrzeug 10 kann eine Reinigungsvorrichtung 24 (4) zum Reinigen der Linse 20 der Beleuchtungseinrichtung 14 enthalten. Die Reinigungsvorrichtung 24 kann eine Düse 26 (1 bis 3) enthalten, die auf die Beleuchtungseinrichtung 14 gerichtet ist. Die Düse 26 ist in einigen Beispielen in den 1 bis 3 gezeigt und eine Düse 26 kann auf eine oder alle Beleuchtungseinrichtungen 14 gerichtet sein. Eine Düse 26 kann einer Beleuchtungseinrichtung 14 zugeordnet sein oder von mehreren Beleuchtungseinrichtungen 14 gemeinsam genutzt werden. Die in den 1 bis 3 gezeigten Düsen befinden sich an der Fahrzeugkarosserie. In anderen Beispielen kann die Düse 26 in ein Sensorgehäuse eingebaut sein, z. B. ein Gehäuse, in dem der Bildsensor 12 und/oder die Beleuchtungseinrichtung 14 untergebracht ist/sind. Die Düse 26 kann ein Fluid, z. B. Reinigungsfluid, und/oder Luft auf die Linse 20 der Beleuchtungseinrichtung 14 sprühen, um die Linse 20 zu reinigen. Die Reinigungsvorrichtung 24 kann eine beliebige geeignete Pumpe, einen beliebigen geeigneten Behälter, eine beliebige geeignete Steuerung usw. zum selektiven Reinigen der Linse 20 enthalten, wenn dies vom Computer 16 angewiesen wird, wie nachstehend beschrieben wird.
  • Das Fahrzeug 10 beinhaltet ein Kommunikationsnetzwerk 28, das Hardware, wie zum Beispiel einen Kommunikationsbus, zum Erleichtern der Kommunikation unter Fahrzeugkomponenten beinhaltet. Das Kommunikationsnetzwerk 28 kann drahtgebundene oder drahtlose Kommunikation unter den Fahrzeugkomponenten gemäß einer Reihe von Kommunikationsprotokollen, wie etwa Controller Area Network (CAN), Ethernet, WLAN, Local Interconnect Network (LIN) und/oder anderen drahtgebundenen oder drahtlosen Mechanismen, erleichtern.
  • Der Computer 16, der über Schaltkreise, Chips oder andere elektronische Komponenten umgesetzt ist, ist in dem Fahrzeug 10 zum Ausführen von verschiedenen Vorgängen, einschließlich der hierin beschriebenen, enthalten. Der Computer 16 ist eine Rechenvorrichtung, die im Allgemeinen einen Prozessor und einen Speicher beinhaltet, wobei der Speicher eine oder mehrere Formen von computerlesbaren Medien beinhaltet und Anweisungen, die durch den Prozessor ausführbar sind, speichert, um unterschiedliche Vorgänge, einschließlich der hierin offenbarten, durchzuführen. Der Speicher des Computers 16 speichert ferner im Allgemeinen entfernte Daten, die über verschiedene Kommunikationsmechanismen empfangen werden; z. B. ist der Computer 16 im Allgemeinen für Kommunikationen auf einem Controller-Area-Network(CAN)-Bus oder dergleichen und/oder für das Verwenden von weiteren drahtgebundenen oder drahtlosen Protokollen, z. B. Bluetooth usw. konfiguriert. Der Computer 16 kann auch über eine Verbindung zu einem On-Board-Diagnoseanschluss (OBD-II) verfügen. Über das Kommunikationsnetzwerk 66 unter Verwendung von Ethernet, WiFi, dem CAN-Bus, Local Interconnect Network (LIN) und/oder weiteren drahtgebundenen oder drahtlosen Mechanismen kann der Computer 16 Daten und Meldungen an verschiedene Vorrichtungen in dem Fahrzeug 10 übertragen und/oder Daten und Meldungen von den verschiedenen Vorrichtungen empfangen, einschließlich der nachstehend beschriebenen.
  • Der Computer 16 ist programmiert, um die Schritte zum Berechnen der Luminanz der Beleuchtungseinrichtung 14 einzuleiten. Anders ausgedrückt, ist der Computer 16 so programmiert, dass er das System und das Verfahren auslöst. Der Computer 16 kann basierend auf Eingaben bestimmen, dass die Schritte zum Berechnen der Luminanz eingeleitet werden sollten, oder kann Anweisungen zum Einleiten empfangen.
  • Die Einleitung kann auf einer zurückgelegten Strecke, einem Zeitintervall oder auf einem Bildmerkmal oder einer Änderung davon basieren. Beispielsweise kann die Bildqualität des Bildsensors 12 durch bekannte Verfahren bestimmt werden, d. h. bekannte Algorithmen, und die Ergebnisse eines solchen Bildalgorithmus können im Zeitablauf verfolgt werden und/oder mit Ausgangswerten verglichen werden. Beispielsweise kann die Bildqualität unter Verwendung eines bekannten statistischen Prozesssteuerungs-/-verfolgungsverfahrens im Zeitablauf verfolgt werden. Der Prozessor kann so programmiert sein, dass er basierend auf Änderungen der Bildqualität, z. B. einer Verschlechterung der Bildqualität, einleitet.
  • Als ein anderes Beispiel kann die Einleitung auf der Erfassung eines Objekts 18 durch den Computer 16 basieren (d. h. auf einer Eingabe von dem Bildsensor 12). Anders ausgedrückt, wenn der Computer 16 ein Objekt 18 als ein Objekt identifiziert, für das eine optische Eigenschaft bekannt ist, kann der Computer 16 die Schritte zum Berechnen der Luminanz der Beleuchtungseinrichtung 14 einleiten.
  • Als ein anderes Beispiel kann die Einleitung auf einem Querverweis mit einer hochauflösenden (high definition - HD) Karte basieren, um bekannte Objekte 18 zu identifizieren und basierend auf der Nähe zu sich nähernden Objekten 18 auf der HD-Karte einzuleiten. Es ist bekannt, dass eine HD-Karte eine digitale Karte für die autonome Navigation ist und Informationsschichten (z. B. semantische Objekte wie Verkehrszeichen, Fahrspurmarkierungen, Straßenschilder, Bäume, Gras, Büsche, andere Fahrzeuge usw.) auf einer geometrischen Karte enthält. Die Informationsschichten können eine Kombination von Informationen sein, die von mehreren autonomen Fahrzeugen bezogen werden, um ein Echtzeit-Karte erzeugen.
  • Der Computer 16 ist so programmiert, dass er die Szene um das Fahrzeug 10 herum, d.h. außerhalb des Fahrzeugs 10, abbildet. Insbesondere ist der Computer 16 so programmiert, dass er die Szene um das Fahrzeug 10 herum mit variierenden Lichtniveaus der Beleuchtungseinrichtung abbildet. Das Variieren der Lichtniveaus der Beleuchtungseinrichtung der Bilder ermöglicht das Subtrahieren des Umgebungslichts, um die Luminanz der Beleuchtungsvorrichtung 14 zu bestimmen, wie nachstehend ausführlicher beschrieben. Beispielsweise kann die Szene ohne Beleuchtung von der Beleuchtungseinrichtung 14 abgebildet werden (d. h. die Beleuchtungseinrichtung 14 bei 0 %) und kann mit voller Beleuchtung von der Beleuchtungseinrichtung 14 abgebildet werden (d. h. die Beleuchtungseinrichtung 14 bei 100 %). Anders ausgedrückt, wird mindestens ein Bild von dem Bildsensor 12 ohne Beleuchtung von der Beleuchtungseinrichtung 14 aufgenommen und wird mindestens ein Bild von dem Bildsensor 12 bei voller Beleuchtung von der Beleuchtungseinrichtung 14 aufgenommen. Zusätzlich oder alternativ kann die Szene auf Niveaus zwischen 0 % und 100 % abgebildet werden. Das Abbilden kann bei niedriger Fahrzeuggeschwindigkeit oder beim Anhalten des Fahrzeugs 10 erfolgen oder, als ein anderes Beispiel, können mehrere Bilder verschmolzen werden, um Fehler aufgrund der Verschiebung im Bild während der Bewegung des Fahrzeugs 10 zu vermeiden. Als ein anderes Beispiel kann der Computer 16 die Beleuchtungseinrichtung 14 abtasten und einen Rolling Shutter verwenden, um ein einzelnes „Bild“ zu erzeugen, wobei jedes Beleuchtungsniveau eine separate Zeile des Bilds ist.
  • Das Abbilden der Szene beinhaltet das Abbilden von Objekten 18 in der Szene. Wie oben ausgeführt, können die Objekte 18 beispielsweise Verkehrszeichen, Fahrspurmarkierungen, Straßenschilder, Bäume, Gras, Büsche, andere Fahrzeuge usw. sein. Die Beleuchtung der Szene durch die Beleuchtungseinrichtung 14 beinhaltet das Beleuchten eines Objekts 18 außerhalb des Fahrzeugs 10.
  • Der Computer 16 ist programmiert, um zu bestimmen, dass das Objekt 18 eine bekannte optische Eigenschaft aufweist, d. h. eine optische Eigenschaft, auf die aus einer Datenbank zugegriffen werden kann. Als ein Beispiel ist der Computer 16 programmiert, um den Typ eines oder mehrerer Objekte 18 in dem Bild zu bestimmen, für die eine optische Eigenschaft, z. B. Reflektivität, bekannt ist. Die optische Eigenschaft wird dann verwendet, um die Luminanz der Beleuchtungseinrichtung 14 zu bestimmen, wie weiter unten beschrieben wird.
  • Beispielsweise ist der Computer 16 so programmiert, dass er die Geometrie des Objekts 18 bestimmt und das Objekt 18 identifiziert (z.B. auf einer HD-Karte) und/oder den Typ des Objekts 18 basierend auf der Geometrie bestimmt (z. B. durch Objekterfassung in dem Bild). Die Geometrie des Objekts 18 beinhaltet die Form des Objekts 18 im Bild, den Abstand zwischen dem Objekt 18 und der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12, die Ausrichtung des Objekts 18 relativ zu der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12.
  • Das von dem Bildsensor 12, d.h. den Sensoren (CMOS, CCD usw.) des Bildsensors 12, aufgenommene Bild der Szene, kann von einem oder mehreren anderen Sensoren oder Kenntnissen und/oder Algorithmen interpretiert werden, um ein annäherndes Modell der Szene oder von mindestens einem oder mehreren abgebildeten Objekten 18 zu konstruieren. Das Modell der Szene kann die Geometrie der Szene, d.h. Formen von Objekten 18, Abstände zwischen Objekten 18 und der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12, Ausrichtung des Objekts 18 relativ zu der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12, enthalten. Diese Geometrie kann durch die Verwendung von Struktur-aus-Bewegung-Techniken; Tiefenkarten basierend auf Monokularkameras durch die Verwendung neuronaler Netzwerke; Erkennung von 3D-Objekten und deren Ausrichtung im Raum durch die Verwendung neuronaler Netzwerke; Tiefenkarten basierend auf Struktur aus Bewegung oder Visual Slam der Monokularkamera; Sensorfusion von einem anderen Sensor, wie zum Beispiel Lidar, Radar, Ultraschall; Integration von Bilderkennung, fusioniert mir HD-Karten oder einer einfacheren Logik (z. B. ein Straßenbelag ist eben, Fahrspurmarkierungen liegen auf der Straße, das Fahrzeug 10 ist ungefähr senkrecht zu der Bodenebene); Stereobildgebung und/oder Laufzeitkameras usw. erreicht werden.
  • Basierend auf dieser Geometrie ist der Computer 16 programmiert, um das Objekt 18 zu identifizieren und/oder den Typ des Objekts 18 basierend auf dem Bild des Objekts 18 zu bestimmen. Als ein Beispiel können das Modell der Szene und die Konstruktionswege des oben beschriebenen Modells den Typ des Objekts 18 bestimmen, z. B. basierend zumindest auf der Form des Objekts 18 in dem Bild. Als ein anderes Beispiel kann das Objekt 18 unter Verwendung einer HD-Karte zusammen mit einer Positionsidentifikation des Fahrzeugs 10, d. h. einer Position des Fahrzeugs 10 auf der HD-Karte, identifiziert werden. Beispielsweise kann die HD-Karte ein Objekt 18 identifizieren und kann die Nähe des Fahrzeugs 10 zu dem Objekt 18 bekannt sein, sodass das System die Szene abbilden kann, wenn sich das Objekt 18 in dem Sichtfeld des Bildsensors 12 befindet.
  • Der Computer 16 ist programmiert, um Form des Objekts 18; den Abstand zwischen dem Objekt 18 und der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12; und/oder die Ausrichtung des Objekts 18 relativ zu der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12 zu bestimmen. Der Computer 16 ist programmiert, um die Luminanz der Beleuchtungseinrichtung 14 zumindest basierend auf der Form, des Abstands und/oder der Ausrichtung zu berechnen. Zum Beispiel kann der Prozessor die Form, den Abstand und/oder die Ausrichtung verwenden, um das Objekt 18 zu identifizieren und/oder den Typ des Objekts 18 zu bestimmen, wie vorstehend beschrieben. Zusätzlich oder alternativ kann der Prozessor die Form, den Abstand und/oder die Ausrichtung bei der Berechnung der Luminanz verwenden, wie nachfolgend beschrieben.
  • Der Computer 16 ist programmiert, um die optische Eigenschaft des Objekts 18 und/oder den Typ des Objekts 18 zu bestimmen. Als ein Beispiel ist der Computer 16 programmiert, um die optische Eigenschaft des Objekts 18 und/oder den Typ des Objekts 18 aus einer Datenbank zu bestimmen. Die Datenbank kann eine Lookup-Tabelle sein, z. B. im Speicher des Computers 16, die optische Eigenschaften für verschiedene Typen von Objekten 18 enthält. Als ein anderes Beispiel kann die Datenbank eine Datenbank auf einer HD-Karte sein. Beispielsweise kann der Computer 16 so programmiert sein, dass er die Szene basierend auf der HD-Karte, wie vorstehend beschrieben, abbildet, wenn er sich in der Nähe eines Objekts 18 befindet, den Typ des Objekts 18 in dem Bild als den Typ identifiziert, der in der HD-Karte identifiziert ist, und auf die optische Eigenschaft dieses Objekts 18 aus der HD-Karte zugreift. In einem solchen Beispiel kann die optische Eigenschaft dieses spezifischen Objekts 18 in der HD-Karte basierend auf Eingaben von anderen autonomen Fahrzeugen, die das Objekt 18 abgebildet haben, kontinuierlich aktualisiert werden. Als ein anderes Beispiel kann der Computer 16 so programmiert sein, dass er das Objekt 18 in dem Bild als ein Objekt identifiziert, das in der HD-Karte identifiziert ist, d. h. basierend auf der Geometrie und der Position des Fahrzeugs, und auf die optische Eigenschaft dieses Objekts 18 aus der HD-Karte zugreift.
  • Insbesondere können Objekte 18, die wie oben beschrieben durch den Typ identifiziert werden können, z. B. Verkehrsschilder, Fahrspurmarkierungen, Straßenschilder, Bäume, Gras, Büsche, andere Fahrzeuge usw., bekannte optische Eigenschaften aufweisen, z. B. Reflexion (spiegelnd, diffus, Retroreflexion), Absorptionsanteile und Geometrieattribute (Abstand, relative Ausrichtung) usw. Diese kann auf die spezifische Wellenlänge der Beleuchtungseinrichtung 14, die Jahreszeit (Winter gegenüber Sommer), HD-Karten (neue gegenüber alten Fahrspurmarkierungen) und andere Faktoren verweisen. Diese Informationen werden bei der Berechnung der Luminanz der Beleuchtungseinrichtung 14 verwendet, wie nachstehend beschrieben.
  • In einem anderen Beispiel, falls das Objekt 18 ein anderes Fahrzeug ist, kann sich die Datenbank in dem anderen Fahrzeug befinden oder von dem anderen Fahrzeug aktualisiert werden. Zum Beispiel können Fahrzeuge und/oder Infrastruktur in deren Fahrzeug-zu-Alles-Kommunikation (vehicle-to-everything communication - V2X-Kommunikation) diese Informationen enthalten und/oder übertragen. Beispielsweise könnte ein schwarzes Fahrzeug angeben, dass es einen diffusen Reflexionsgrad von 10 %, eine Retroreflexion von 2 % und eine spiegelnde Reflexion von 5 % aufweist. Das Fahrzeug kann in der oben beschriebenen Bildgebung und Typenerkennung identifiziert werden und die optische Eigenschaft wird über V2X übertragen und diese beiden Informationen können miteinander verknüpft werden, um die optische Eigenschaft des abzubildenden Objekts 18, d. h. des schwarzen Fahrzeugs, zu bestimmen.
  • Der Computer 16 ist programmiert, um der Luminanz der Beleuchtungseinrichtung 14 mindestens basierend auf der optischen Eigenschaft des Objekts 18 zu berechnen. Außerdem kann der Computer 16 programmiert sein, um den Abstand zwischen dem Objekt 18 und der Beleuchtungseinrichtung 14 und/oder die Ausrichtung des Objekts 18 relativ zu der Beleuchtungseinrichtung 14 zu bestimmen und die Luminanz der Beleuchtungseinrichtung 14 mindestens basierend auf dem Abstand und/oder der Ausrichtung zu berechnen.
  • Insbesondere ist der Computer 16 programmiert, um die Leuchtdichte der Beleuchtungseinrichtung 14 auf der Grundlage der bekannten physikalischen Attribute des Bildsensors 12 (z. B. Belichtungszeit, Analog-Digital-Verstärkung, F-Stop, Vignettierung, QE, Brennweite, F-Stop, Kamerakalibrierungsempfindlichkeit, FOV, Ausrichtung, Position (relativ und absolut) usw.) und der Beleuchtungseinrichtung 14 (z. B. Wellenlänge, Lumineszieren gegenüber Leistung (V, I), Position, Ausrichtung, Intensität der Lichtquelle in Abhängigkeit von Entfernung und Winkel des Lichts (siehe Grafik unten im technischen Hintergrund usw.) zu berechnen. Der Computer 16 kann programmiert sein, um das Wetter basierend auf der Absorption von Licht, z. B. Nebel, zu berücksichtigen.
  • Der Computer 16 ist programmiert, um das Lumineszieren der Beleuchtungseinrichtung 14 basierend auf einer Teilregion des Bilds zu berechnen, in welcher das Objekt 18 mit der bekannten Geometrie und den bekannten optischen Eigenschaften segmentiert und durch die Verwendung der nachfolgenden Gleichung analysiert ist. Die Intensität dieser Region kann analysiert werden. Wenn ein großer Unterschied festgestellt wird, dann kann das Objekt 18 weiter unterteilt werden. Der Computer 16 kann programmiert sein, um Dunkelstromrauschen in dem Bild zu berücksichtigen, wenn sich ein Objekt in einem Abstand befindet, in dem das Dunkelstromrauschen in dem Bild mit dem Signal vergleichbar ist.
  • Ausgehend von den Kalibrierungsinformationen, der zuvor erhaltenen Geometrie, Bildsequenz bei variierenden Leistungsniveaus der Beleuchtungseinrichtung und den bestimmten optischen Eigenschaften kann die Luminanz der Beleuchtungseinrichtung 14 in der folgenden Gleichung berechnet werden: L u m i n a n c e = ( 4 2 π 2 r 4 r d i f f u s e ( θ ) + 4 1 π 1 r 2 s p e c u r a l ( θ ) + 4 1 π 1 r 2 r e t r o r e f l e c t i v e ) f L E D ( θ ) f o b j ( θ ) f l e n s ( θ ) N d ,100 % K c ( f s 2 t S ) N d ,0 % K c ( f s 2 t S ) N d ,0 % K c ( f s 2 t S )
    Figure DE102020105059A1_0001
    wobei:
  • r =
    Abstand zwischen Objekt 18 und Bildsensor 12 und/oder Beleuchtungseinrichtung 14;
    rdiffuse(θ) =
    bekannter diffuser Reflexionswert eines Objekts 18;
    specular(θ) =
    bekannter spiegelnder Reflexionswert eines Objekts 18;
    retro_reflective =
    bekannter Retroreflexionswert eines Objekts 18;
    fLED(θ) =
    Funktion der Linse 20 der Beleuchtungseinrichtung;
    fobj(θ) =
    Funktion des Objekts 18;
    f1ens(θ) =
    Funktion der Linse 22 des Bildsensors;
    Nd =
    digitale Zahl (Wert) des Pixels im Bild;
    Kc =
    Kalibrierungskonstante für den Bildsensor 12;
    t =
    Belichtungszeit (Sekunden);
    fs =
    Blendenzahl (F-Stop);
    S =
    ISO-Empfindlichkeit;
    Ls =
    Luminanz der Szene (Candela/Meter2).
  • In einigen Fällen kann angenommen werden, dass r ungefähr gleich ist. Es kann auch angenommen werden, dass das Verhalten der Intensität der Lichtquelle, die sich im Raum zum Objekt 18 und zurück zum Bildsensor 12 ausbreitet, einer Punktspreizfunktion mit einer Modifikation der Funktion, f(0), folgt, welche die Ausrichtungsfunktionalität der Linse 20 der Beleuchtungseinrichtung, des Objekts 18 und der Linse 22 des Bildsensors berücksichtigen kann. Beispielsweise kann die Beleuchtungseinrichtung 14 eine starke Ausrichtungsabhängigkeit aufweisen und kann der Bildsensor 12 in Abhängigkeit von den relativen Ausrichtungen und den Bildsignalverarbeitungskorrekturen des Bildsensors 12 Vignettierungseffekte erfahren. Die Reflexion wird als diffus berücksichtigt und kann auf der Grundlage des Objekts 18 und seines Reflexionsgrads im Spektralbereich der Lichtquelle bestimmt werden. Der letztere Abschnitt der obigen Gleichung bestimmt die Luminanz des Objekts 18 basierend auf der Kalibrierung des Bildsensors 12 abzüglich des Effekts der Luminanz des Umgebungslichts. Die Lösung der obigen Gleichung berechnet die Luminanz der Beleuchtungseinrichtung 14. Der Term „specular(θ)“ in der obigen Gleichung korrigiert die spiegelnde Reflexion, wenn das Objekt 18 relativ zur Beleuchtungseinrichtung 14 und dem Bildsensor 12 so korrekt in der Szene angeordnet ist. Es kann angenommen werden, dass dieser Term normalerweise null ist und für die meisten abgetasteten Objekte 18 aus der Gleichung gestrichen werden kann. Der Term „retro_reflective“ in der obigen Gleichung ist das Ausmaß des Retroreflexionseffekts multipliziert mit der diffusen Lichtemission der Beleuchtungseinrichtung 14 beim Treffen auf das Objekt 18. Weitere Korrekturen können hinzugefügt werden, um die spektralen Eigenschaften der Beleuchtungseinrichtung 14, des Objekts 18 und des Bildsensors 12 zu berücksichtigen. Weitere Bereiche der Pixel des Objekts, die durch spiegelnde Reflexion von der Beleuchtungseinrichtung 14 oder anderen Lichtquellen beeinflusst werden können, können entfernt werden, um die Berechnung in einem Objekt 18 mit variierender Intensität über die Teilregion zu vereinfachen.
  • Die obige Berechnung berechnet einen numerischen Wert für die prozentuale Abnahme der Beleuchtungseinrichtung 14. Somit wird der Grad der Verschlechterung quantifiziert und können geeignete Maßnahmen auf der Grundlage dieser Information ergriffen werden, wie oben beschrieben.
  • Der Computer 16 ist programmiert, um zu bestimmen, ob die Luminanz der Beleuchtungseinrichtung 14 geringer als erwartet und/oder erforderlich ist. Die relativ geringe Luminanz kann durch eine Blockade, z.. auf der Linse 20 der Beleuchtungseinrichtung 14, und/oder durch einen Ausfall der Beleuchtungseinrichtung 14, z. B. LED-Ausfall, verursacht werden. Beispielsweise ist der Computer 16 so programmiert, dass er die Luminanz der Beleuchtungseinrichtung 14 mit einem Schwellenwert vergleicht. Insbesondere kann der Prozessor so programmiert sein, dass er ein statistisches Prozesssteuerungs- und/oder - verfolgungsverfahren verwendet, um Änderungen der Luminanz zu vergleichen und zu identifizieren. Das Abbilden ohne Beleuchtung und bei voller Beleuchtung und das Berechnen der Luminanz der Beleuchtungseinrichtung 14 basierend auf der optischen Eigenschaft kann für verschiedene Szenen über die Zeit wiederholt werden, um eine Verschiebung zu bestimmen. Der Prozessor kann das spezifische Objekt 18 auch mit einer Datenbank referenzieren, z. B. von einer HD-Karte, um Änderungen, z. B. neue Fahrspurmarkierungen, oder Verschlechterung über die Zeit zu berücksichtigen.
  • Der Computer 16 ist programmiert, um das System auf der Grundlage dessen anzupassen, dass die Luminanz der Beleuchtungseinrichtung 14 geringer als erwartet und/oder erforderlich ist. Beispielsweise ist der Computer 16 programmiert, um mindestens eines von der Beleuchtungseinrichtung 14, dem Bildsensor 12 und/oder dem Computer 16 anzupassen, wenn die Luminanz unter dem Schwellenwert liegt. Die Anpassung kann zum Beispiel eine Anpassung der Beleuchtungseinrichtung 14 durch das Reinigen einer Linse 20 der Beleuchtungseinrichtung 14 sein. Zum Beispiel kann ein Fluid, wie zum Beispiel Reinigungsflüssigkeit, und/oder Luft auf die Linse 20 der Beleuchtungseinrichtung 14 gesprüht werden, um die Linse zu reinigen. Der Prozessor kann programmiert sein, um eine Reinigungsvorrichtung 24 anzuweisen, die Linse 20 in einem solchen Fall zu reinigen. Der Prozessor kann programmiert sein, um zu überprüfen, ob die Linse 20 sauber ist, indem die oben beschriebene Berechnung der Luminanz wiederholt wird. Andere Beispiele für das Anpassen des Systems können das Protokollieren der Ergebnisse für die zukünftige Verwendung, das Planen der Wartung (einschließlich des Anweisens des Fahrzeugs 10, zur Wartung zu einem Dienstanbieter zu fahren), das Deaktivieren des Systems (z. B. das Deaktivieren des Bildsensors 12 und/oder der Beleuchtungseinrichtung 14) und/oder das Modifizieren von Sensorfusion und Wahrnehmungsalgorithmen/-logik beinhalten, um eine geringere Luminanz zu berücksichtigen. In Beispielen, in denen die Linse 20, 22 von dem Bildsensor 12 und der Beleuchtungseinrichtung 14 geteilt wird, kann die gesamte Linse 20, 22 gereinigt werden oder kann nur ein Abschnitt der Linse 20, 22 gereinigt werden, durch den die Beleuchtungseinrichtung 14 gerichtet ist. Als ein anderes Beispiel kann der Bildsensor 12, z. B. in Beispielen, in denen der Bildsensor 12 eine Kamera ist, längere Belichtungen benötigen, um ein Bild mit verbesserter Qualität mit ausreichender Bildbelichtung zu erhalten, unter der Annahme, dass die Verschlechterung begrenzt ist und das Dunkelstromrauschendes Bildsensors 12 in langen Belichtungen nicht dominiert.
  • Ein Verfahren 500 zum Betreiben der in den 1 bis 4 gezeigten Beispiele ist in 5 gezeigt. Der Computer 16 kann programmiert sein, um das in 5 gezeigte Verfahren durchzuführen.
  • Unter Bezugnahme auf Block 505 beinhaltet das Verfahren 500 das Einleiten der Schritte zum Berechnen der Luminanz der Beleuchtungseinrichtung 14, d. h., das Auslösen des Systems und des Verfahrens 500. Block 505 kann Bestimmen, basierend auf Eingaben, dass die Schritte zum Berechnen der Luminanz eingeleitet werden sollten, beinhalten und/oder Anweisungen zum Einleiten empfangen. Zum Beispiel kann der Block 505 das Berechnen oder Empfangen eines zurückgelegten Strecke, eines Zeitintervalls oder eines Bildmerkmals oder einer Änderung davon und das Einleiten des Systems und des Verfahrens 500 basierend auf diesen Informationen beinhalten. Beispielsweise kann das Verfahren 500 in Block 505 das Bestimmen der Bildqualität des Bildsensors 12 durch bekannte Verfahren, d. h. bekannte Algorithmen, beinhalten und können die Ergebnisse eines solchen Bildalgorithmus im Zeitablauf verfolgt werden und/oder mit Ausgangswerten verglichen werden. Zum Beispiel kann das Verfahren das Verfolgen der Bildqualität im Zeitablauf unter Verwendung eines bekannten statistischen Prozesssteuerungs- und/oder -verfolgungsverfahrens beinhalten. Als ein anderes Beispiel kann das Verfahren einen Querverweis mit einer hochauflösenden (HD) Karte beinhalten, um bekannte Objekte 18 zu identifizieren und basierend auf der Nähe zu sich nähernden Objekten 18 auf der HD-Karte einzuleiten.
  • Unter Bezugnahme auf die Blöcke 510 und 515 beinhaltet das Verfahren das Abbilden der Szene um das Fahrzeug 10. Insbesondere beinhaltet das Verfahren das Variieren von Lichtniveaus der Beleuchtungseinrichtung. In den Beispielen in den Blöcken 510 und 515 beinhaltet das Verfahren das Abbilden der Szene ohne Beleuchtung von der Beleuchtungseinrichtung 14 (Block 510) und mit voller Beleuchtung von der Beleuchtungseinrichtung 14 (Block 515). Anders ausgedrückt, beinhaltet der Block 510 das Abbilden der Szene mit dem Bildsensor 12 und beinhaltet der Block 515 sowohl das Beleuchten der Szene mit der Beleuchtungseinrichtung 14 als auch das Abbilden der Szene mit dem Bildsensor 12. Zusätzlich oder alternativ kann das Verfahren das Abbilden der Szene bei Niveaus zwischen 0 % und 100 % beinhalten. Das Verfahren kann das Abbilden bei einer niedrigen Fahrzeuggeschwindigkeit oder wenn das Fahrzeug 10 angehalten ist, beinhalten. Als ein anderes Beispiel kann das Verfahren das Verschmelzen mehrerer Bilder miteinander beinhalten, um Fehler aufgrund der Verschiebung im Bild während der Bewegung des Fahrzeugs 10 zu vermeiden. Das Beleuchten der Szene beinhaltet das Beleuchten eines oder mehrerer Objekte 18 in der Szene und das Abbilden der Szene beinhaltet das Abbilden des Objekts 18.
  • Das Verfahren beinhaltet das Bestimmen der Geometrie des Objekts 18 (Block 520) und das Bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist (Block 525). Dies kann auf der Geometrie basieren, die auf dem Bild des Objekts 18 basiert, d. h. dem Bild, das in Block 510 aufgenommen wurde, und/oder dem Bild. das in Block 515 aufgenommen wurde. Insbesondere kann das Verfahren in Block 520 das Berechnen und/oder Empfangen einer Messung des Abstands zwischen dem Objekt 18 und der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12, der Geometrie des Objekts 18, der Ausrichtung des Objekts 18 relativ zu der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12, der relativen Position von der Beleuchtungseinrichtung 14 und/oder dem Bildsensor 12 und/oder anderen Informationen beinhalten. Das Verfahren beinhaltet in Block 520 und/oder Block 525 das Interpretieren des Bilds der Szene, das durch den Bildsensor 12 aufgenommen wurde, durch einen oder mehrere anderen Sensoren oder Kenntnisse und/oder Algorithmen und das Konstruieren eines annähernden Modells der Szene oder von mindestens einem oder mehreren abgebildeten Objekten 18, wie vorstehend beschrieben. Beispielsweise ist der Computer 16 so programmiert, dass er die Geometrie des Objekts 18 bestimmt und das Objekt 18 identifiziert und/oder den Typ des Objekts 18 basierend auf der Geometrie bestimmt. Insbesondere beinhaltet das Verfahren in Block 520 und/oder Block 525 das Interpretieren des Bilds der Szene, das durch den Bildsensor 12 aufgenommen wurde, durch einen oder mehrere anderen Sensoren oder Kenntnisse und/oder Algorithmen, um ein annäherndes Modell der Szene oder von mindestens einem oder mehreren abgebildeten Objekten 18, wie vorstehend beschrieben, zu konstruieren.
  • Das Verfahren bei Block 525 beinhaltet das Identifizieren des Objekts 18 und/oder das Bestimmen des Typs des Objekts 18 basierend auf dem Bild des Objekts 18. Das Verfahren kann das Bestimmen des Typs des Objekts 18 mindestens basierend auf der Form des Objekts 18 beinhalten. Als ein Beispiel können das Modell der Szene und die Konstruktionswege des oben beschriebenen Modells das Objekt 18 identifizieren und/oder den Typ des Objekts 18 identifizieren. Als ein anderes Beispiel kann das Objekt 18 unter Verwendung einer HD-Karte zusammen mit einer Positionsidentifikation des Fahrzeugs 10, d. h. einer Position des Fahrzeugs 10 auf der HD-Karte, identifiziert werden. Beispielsweise kann die HD-Karte ein Objekt 18 und die Nähe des Fahrzeugs 10 zu dem Objekt 18 identifizieren, sodass das System die Szene abbilden kann, wenn sich das Objekt 18 in dem Sichtfeld des Bildsensors 12 befindet.
  • Unter Bezugnahme auf Block 530 beinhaltet das Verfahren das Bestimmen der optischen Eigenschaft des Typs des Objekts 18 nach dem Identifizieren des Objekts 18 und/oder dem Bestimmen des Typs, wie oben beschrieben. Als ein Beispiel beinhaltet das Verfahren das Bestimmen der optischen Eigenschaft des Objekts 18 oder des Typs des Objekts 18 aus einer Datenbank, wie oben beschrieben. Zum Beispiel kann das Verfahren das Zugreifen auf eine Lookup-Tabelle, z. B. im Speicher des Computers 16, beinhalten, die optische Eigenschaften für verschiedene Typen von Objekten 18 enthält. Als ein anderes Beispiel kann das Verfahren das Abbilden der Szene basierend auf der HD-Karte, wie vorstehend beschrieben, wenn in der Nähe eines Objekts 18, das Identifizieren des Typs des Objekts 18 in dem Bild als den Typ, der in der HD-Karte identifiziert ist, und das Zugreifen auf die optische Eigenschaft dieses Objekts 18 aus der HD-Karte beinhalten. Als ein anderes Beispiel kann das Verfahren das Zugreifen auf die optische Eigenschaft durch V2X-Kommunikation, wie oben beschrieben, beinhalten.
  • Unter Bezugnahme auf Block 535 beinhaltet das Verfahren das Berechnen der Luminanz der Beleuchtungseinrichtung 14 basierend auf der optischen Eigenschaft (d. h. basierend auf dem Objekt 18 und/oder dem Typ des Objekts 1, dem Bild ohne Beleuchtung und dem Bild bei voller Beleuchtung). Insbesondere kann die Berechnung basierend auf dem Objekt 18 und/oder dem Typ des Objekts 18 das Berechnen basierend auf der optischen Eigenschaft des Objekts und/oder des Typs des Objekts 18 beinhalten. Außerdem kann das Verfahren das Bestimmen des Abstands zwischen dem Objekt 18 und der Beleuchtungseinrichtung 14 und/oder der Ausrichtung des Objekts 18 relativ zu der Beleuchtungseinrichtung 18 und das Berechnen der Luminanz der Beleuchtungseinrichtung 14 mindestens basierend auf dem Abstand und/oder der Ausrichtung beinhalten. Das Verfahren zum Berechnen der Luminanz kann die Umsetzung der oben dargelegten Berechnung beinhalten.
  • Das Verfahren kann das Berechnen der Luminanz basierend auf einer Teilregion des Bilds beinhalten, in welcher das Objekt 18 mit der bekannten Geometrie und den bekannten optischen Eigenschaften segmentiert und durch die Verwendung der nachfolgenden Gleichung analysiert ist. Die Intensität dieser Region kann analysiert werden. Wenn ein großer Unterschied festgestellt wird, dann kann das Objekt 18 weiter unterteilt werden.
  • Unter Bezugnahme auf den Entscheidungskasten 540 beinhaltet das Verfahren das Bestimmen, ob die Luminanz der Beleuchtungseinrichtung 14 geringer als erwartet und/oder erforderlich ist. Als ein Beispiel beinhaltet das Verfahren das Vergleichen der Luminanz der Beleuchtungseinrichtung 14 (wie oben berechnet) mit einem Schwellenwert. Insbesondere kann das Verfahren Änderungen der Luminanz unter Verwendung von statistischer Prozesssteuerung und/oder -verfolgung vergleichen und identifizieren. Das Verfahren kann das Wiederholen des Abbildens ohne Beleuchtung und bei voller Beleuchtung und des Berechnens der Luminanz der Beleuchtungseinrichtung 14 basierend auf der optischen Eigenschaft für verschiedene Szenen über die Zeit beinhalten, um eine Verschiebung zu bestimmen. Das Verfahren kann das Referenzieren des spezifischen Objekts 18 mit einer Datenbank, z. B. von einer HD-Karte, beinhalten, um Änderungen, z. B. neue Fahrspurmarkierungen, oder Verschlechterung über die Zeit zu berücksichtigen.
  • Unter Bezugnahme auf den Kasten 545 beinhaltet das Verfahren Anpassen des Systems auf der Grundlage dessen, dass die Luminanz der Beleuchtungseinrichtung 14 geringer als erwartet und/oder erforderlich ist. Beispielsweise beinhaltet das Verfahren das Anpassen von mindestens einem von der Beleuchtungseinrichtung 14, dem Bildsensor 12 und/oder dem Computer 16, wenn die Luminanz unter dem Schwellenwert liegt. Beispielsweise beinhaltet das Verfahren das Reinigen einer Linse 20 der Beleuchtungseinrichtung 14, z. B. das Sprühen von einem Fluid, wie zum Beispiel Reinigungsflüssigkeit, und/oder von Luft auf die Linse 20 der Beleuchtungseinrichtung 14, um die Linse 20 zu reinigen. In einem solchen Fall kann das Verfahren das Verifizieren, dass die Linse 20 sauber ist, durch das Wiederholen der Berechnung der Luminanz, wie vorstehend beschrieben, beinhalten. Andere Beispiele für das Anpassen des Systems können das Protokollieren der Ergebnisse für die zukünftige Verwendung, das Planen der Wartung, das Modifizieren der Sensorfusion und von Wahrnehmungsalgorithmen/-logik beinhalten, um eine geringere Luminanz zu berücksichtigen. Als ein anderes Beispiel kann der Bildsensor 12 längere Belichtungen benötigen, um ein Bild mit verbesserter Qualität mit ausreichender Bildbelichtung zu erhalten, unter der Annahme, dass die Verschlechterung begrenzt ist und das Dunkelstromrauschendes Bildsensors 12 in langen Belichtungen nicht dominiert. Als ein anderes Beispiel kann der Bildsensor 12, z. B. in Beispielen, in denen der Bildsensor 12 eine Kamera ist, mehrere unterschiedliche Belichtungen benötigen, um ein Bild mit hohem Dynamikbereich mit ausreichendem Bildintensitätsbereich zu erhalten.
  • Hinsichtlich der hierin beschriebenen Prozesses 500 versteht es sich, dass die Schritte eines solchen Prozesses 500 zwar als gemäß einer bestimmten Reihenfolge erfolgend beschrieben worden sind, ein solcher Prozess 500 aber mit den beschriebenen Schritten in einer Reihenfolge durchgeführt werden könnte, die von der hier beschriebenen Reihenfolge abweicht. Es versteht sich zudem, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in der vorliegenden Schrift beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt wird die Beschreibung des Prozesses 500 im vorliegenden Zusammenhang zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollte in keinster Weise dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränkt.
  • Rechenvorrichtungen, wie etwa der Computer 16, beinhalten im Allgemeinen computerausführbare Anweisungen, wobei die Anweisungen durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend aufgeführten, ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung vielfältiger Programmiersprachen und/oder - technologien erstellt wurden, einschließlich unter anderem und entweder für sich oder in Kombination Java™, C, C++, Visual Basic, Java Script, Perl usw. Einige dieser Anwendungen können auf einer virtuellen Maschine kompiliert und ausgeführt werden, wie etwa der Java Virtual Machine, der Dalvik Virtual Machine oder dergleichen. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, darunter einen oder mehrere der hierin beschriebenen Prozesse. Derartige Anweisungen und anderen Daten können unter Verwendung einer Vielfalt von computerlesbaren Medien gespeichert und übertragen werden.
  • Ein computerlesbares Medium (auch als prozessorlesbares Medium bezeichnet) schließt ein beliebiges nichttransitorisches (z. B. materielles) Medium ein, das an der Bereitstellung von Daten (z. B. Anweisungen) beteiligt ist, die von einem Computer (z. B. von einem Prozessor eines Computers) gelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien und flüchtiger Medien. Zu nichtflüchtigen Medien können zum Beispiel optische und Magnetplatten und andere dauerhafte Speicher gehören. Flüchtige Medien können zum Beispiel dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM) beinhalten, der typischerweise einen Hauptspeicher darstellt. Solche Anweisungen können durch ein oder mehrere Übertragungsmedien übertragen werden, einschließlich Koaxialkabeln, Kupferdraht und Glasfaser, einschließlich der Drähte, die einen an einen Prozessor eines Computers gekoppelten Systembus umfassen. Gängige Formen computerlesbarer Medien beinhalten zum Beispiel eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das durch einen Computer ausgelesen werden kann.
  • In einigen Beispielen können Systemelemente als computerlesbare Anweisungen (z. B. Software) auf einer oder mehreren Rechenvorrichtungen (z. B. Servern, PCs, Rechenmodulen usw.) umgesetzt sein, die auf zugehörigen computerlesbaren Speichermedien (z. B. Platten, Speichern usw.) gespeichert sind. Ein Computerprogrammprodukt kann derartige Anweisungen umfassen, die zum Ausführen der in dieser Schrift beschriebenen Funktionen auf computerlesbaren Medien gespeichert sind.
  • Die Offenbarung wurde auf veranschaulichende Weise beschrieben und es versteht sich, dass die verwendete Terminologie vielmehr der Beschreibung als der Einschränkung dienen soll. In Anbetracht der vorstehenden Lehren sind viele Modifikationen und Variationen der vorliegenden Offenbarung möglich und die Offenbarung kann anders als konkret beschrieben umgesetzt werden.
  • Gemäß der vorliegenden Erfindung wird ein Fahrzeug bereitgestellt, das Folgendes aufweist: einen Bildsensor mit einem Sichtfeld; eine Beleuchtungseinrichtung, die auf das Sichtfeld gerichtet ist; und einen Computer, der einen Prozessor und einen Speicher beinhaltet, der Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um: ein Objekt außerhalb des Fahrzeugs zu beleuchten; zu bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; die optische Eigenschaft des Objekts aus einer Datenbank zu bestimmen; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts zu berechnen; und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anzupassen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um die Beleuchtungseinrichtung durch Reinigen einer Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anzupassen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer anzupassen, wenn die Luminanz unter dem Schwellenwert liegt.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um die Geometrie des Objekts zu bestimmen und einen Typ des Objekts basierend auf der Geometrie zu bestimmen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um die Form des Objekts zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um den Abstand zwischen dem Objekt und der Beleuchtungseinrichtung und/oder die Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung zu berechnen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um ein Bild des Objekts während der Beleuchtung aufzunehmen.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, aufweisend einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um: ein Objekt außerhalb eines Fahrzeugs mit einer Beleuchtungseinrichtung zu beleuchten; zu bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; die optische Eigenschaft des Objekts aus einer Datenbank zu bestimmen; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts zu berechnen; und eine Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung zu reinigen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und die Linse der Beleuchtungseinrichtung zu reinigen, wenn die Luminanz unter dem Schwellenwert liegt.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um die Geometrie des Objekts zu bestimmen und einen Typ des Objekts basierend auf der Geometrie des Objekts zu bestimmen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um die Form des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  • Gemäß einer Ausführungsform speichert der Speicher weitere Anweisungen, die ausgeführt werden können, um den Abstand zwischen dem Objekt und der Beleuchtungseinrichtung und/oder die Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung zu berechnen.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Beleuchten eines Objekts; Bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; Bestimmen der optischen Eigenschaft des Objekts aus einer Datenbank; Berechnender Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts; und Anpassen von mindestens einem von der Beleuchtungseinrichtung, einem Bildsensor und einem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung.
  • Gemäß einer Ausführungsform beinhaltet Anpassen der Beleuchtungseinrichtung Reinigen einer Linse der Beleuchtungseinrichtung.
  • Gemäß einer Ausführungsform beinhaltet Bestimmen eines Typs des Objekts Bestimmen der Geometrie des Objekts.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch Vergleichen der Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert und Reinigen der Linse der Beleuchtungseinrichtung, wenn die Luminanz unter dem Schwellenwert liegt.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch Bestimmen der Form des Objekts und Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch Bestimmen des Abstands zwischen dem Objekt und der Beleuchtungseinrichtung und/oder der Ausrichtung des Objekts relativ zu der Beleuchtungseinrichtung und Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf dem Abstand und/oder der Ausrichtung.

Claims (15)

  1. Fahrzeug, umfassend: einen Bildsensor mit einem Sichtfeld; eine Beleuchtungseinrichtung, die auf das Sichtfeld gerichtet ist; und einen Computer, der einen Prozessor und einen Speicher beinhaltet, der Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um: ein Objekt außerhalb des Fahrzeugs zu beleuchten; zu bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; die optische Eigenschaft des Objekts aus einer Datenbank zu bestimmen; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts zu berechnen; und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anzupassen.
  2. Fahrzeug nach Anspruch 1, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um die Beleuchtungseinrichtung durch Reinigen einer Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung anzupassen.
  3. Fahrzeug nach Anspruch 2, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  4. Fahrzeug nach einem der Ansprüche 1-3, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und mindestens eines von der Beleuchtungseinrichtung, dem Bildsensor und dem Computer anzupassen, wenn die Luminanz unter dem Schwellenwert liegt.
  5. Fahrzeug nach einem der Ansprüche 1-3, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um die Geometrie des Objekts zu bestimmen und einen Typ des Objekts basierend auf der Geometrie zu bestimmen.
  6. Fahrzeug nach einem der Ansprüche 1-3, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um die Form des Objekts zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  7. System, umfassend einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um: ein Objekt außerhalb eines Fahrzeugs mit einer Beleuchtungseinrichtung zu beleuchten; zu bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; die optische Eigenschaft des Objekts aus einer Datenbank zu bestimmen; die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts zu berechnen; und eine Linse der Beleuchtungseinrichtung mindestens basierend auf der Luminanz der Beleuchtungseinrichtung zu reinigen.
  8. System nach Anspruch 7, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um ein Fluid auf die Linse zu sprühen, um die Linse zu reinigen.
  9. System nach einem der Ansprüche 7-8, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um die Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert zu vergleichen und die Linse der Beleuchtungseinrichtung zu reinigen, wenn die Luminanz unter dem Schwellenwert liegt.
  10. System nach einem der Ansprüche 7-8, wobei der Speicher weitere Anweisungen speichert, die ausgeführt werden können, um die Form des Objekts relativ zu der Beleuchtungseinrichtung zu bestimmen und die Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form zu berechnen.
  11. Verfahren, umfassend: Beleuchten eines Objekts; Bestimmen, dass das Objekt eine bekannte optische Eigenschaft aufweist; Bestimmen der optischen Eigenschaft des Objekts aus einer Datenbank; Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf der optischen Eigenschaft des Objekts; und Anpassen von mindestens einem von der Beleuchtungseinrichtung, einem Bildsensor und einem Computer mindestens basierend auf der Luminanz der Beleuchtungseinrichtung.
  12. Verfahren nach Anspruch 11, wobei Anpassen der Beleuchtungseinrichtung Reinigen einer Linse der Beleuchtungseinrichtung beinhaltet.
  13. Verfahren nach einem der Ansprüche 11-12, wobei Bestimmen eines Typs des Objekts Bestimmen der Geometrie des Objekts beinhaltet.
  14. Verfahren nach einem der Ansprüche 11-12, ferner umfassend Vergleichen der Luminanz der Beleuchtungseinrichtung mit einem Schwellenwert und Reinigen der Linse der Beleuchtungseinrichtung, wenn die Luminanz unter dem Schwellenwert liegt.
  15. Verfahren nach einem der Ansprüche 11-12, ferner umfassend Bestimmen der Form des Objekts und Berechnen der Luminanz der Beleuchtungseinrichtung mindestens basierend auf der Form.
DE102020105059.3A 2019-02-27 2020-02-26 Bestimmung der blockierung einer beleuchtungseinrichtung durch bekannte optische eigenschaften Withdrawn DE102020105059A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/287,672 2019-02-27
US16/287,672 US10771665B1 (en) 2019-02-27 2019-02-27 Determination of illuminator obstruction by known optical properties

Publications (1)

Publication Number Publication Date
DE102020105059A1 true DE102020105059A1 (de) 2020-08-27

Family

ID=72139116

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020105059.3A Withdrawn DE102020105059A1 (de) 2019-02-27 2020-02-26 Bestimmung der blockierung einer beleuchtungseinrichtung durch bekannte optische eigenschaften

Country Status (3)

Country Link
US (1) US10771665B1 (de)
CN (1) CN111629128A (de)
DE (1) DE102020105059A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023000316B4 (de) 2023-02-02 2024-07-11 Mercedes-Benz Group AG Fahrzeug und Verfahren zur Reinigung eines Sensors

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230080085A1 (en) * 2021-09-10 2023-03-16 Aptiv Technologies Limited Driver vision assistance systems and methods
TWI800140B (zh) * 2021-12-06 2023-04-21 致伸科技股份有限公司 監控方法
US20230290000A1 (en) * 2022-03-08 2023-09-14 Nec Corporation Of America Image analysis for controlling movement of an object
US12114084B2 (en) 2022-03-08 2024-10-08 Nec Corporation Of America Image based localization
US12067805B2 (en) 2022-03-08 2024-08-20 Nec Corporation Of America Facial gesture recognition in SWIR images

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6891960B2 (en) * 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
JP2003174586A (ja) * 2001-12-07 2003-06-20 Seiko Precision Inc 撮像装置および携帯電子機器
GB0216483D0 (en) * 2002-07-16 2002-08-21 Trw Ltd Vehicle window cleaning apparatus and method
JP3915742B2 (ja) 2003-06-20 2007-05-16 株式会社デンソー 車両用物体認識装置
EP1498721A1 (de) * 2003-07-15 2005-01-19 ELMOS Semiconductor AG Vorrichtung zur Erkennung von Nebel, insbesondere für ein Fahrzeug
JP4444048B2 (ja) * 2004-09-13 2010-03-31 アサヒビール株式会社 熱可塑性接着剤検査装置及び検査方法
JP4437750B2 (ja) 2005-02-04 2010-03-24 三機工業株式会社 灯器の洗浄システム
WO2012092911A1 (de) 2010-11-30 2012-07-12 Conti Temic Microelectronic Gmbh Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung
JP2012171536A (ja) 2011-02-23 2012-09-10 Jvc Kenwood Corp 車両用ランプ点灯状態判定装置
US9319637B2 (en) * 2012-03-27 2016-04-19 Magna Electronics Inc. Vehicle vision system with lens pollution detection
US9542605B2 (en) * 2012-07-03 2017-01-10 Clarion Co., Ltd. State recognition system and state recognition method
JP6120395B2 (ja) 2012-07-03 2017-04-26 クラリオン株式会社 車載装置
EP2878498B1 (de) * 2012-07-27 2020-06-24 Nissan Motor Co., Ltd Kameravorrichtung, dreidimensionale objekterfassungsvorrichtung und objektivreinigungsverfahren
US9569675B2 (en) * 2012-07-27 2017-02-14 Nissan Motor Co., Ltd. Three-dimensional object detection device, and three-dimensional object detection method
RU2572954C1 (ru) * 2012-07-27 2016-01-20 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов и способ обнаружения трехмерных объектов
US9445057B2 (en) * 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
US9126534B2 (en) * 2013-03-14 2015-09-08 Ford Global Technologies, Llc Automated camera wash for vehicles
JP2015052495A (ja) * 2013-09-06 2015-03-19 株式会社リコー 導光体、物体検出装置
KR101527810B1 (ko) 2014-11-27 2015-06-11 한국건설기술연구원 도로 시인성 확보를 위한 적외선 촬상장치 및 이를 이용한 촬상 방법
IL236114A (en) * 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit
US9607242B2 (en) * 2015-01-16 2017-03-28 Ford Global Technologies, Llc Target monitoring system with lens cleaning device
US10035498B2 (en) 2015-04-22 2018-07-31 Ford Global Technologies, Llc Vehicle camera cleaning system
US20160341848A1 (en) * 2015-05-22 2016-11-24 Satoshi Nakamura Object detection apparatus, object removement control system, object detection method, and storage medium storing object detection program
WO2017019725A1 (en) * 2015-07-28 2017-02-02 Wenasont Dynamics Llc System and method for light and image projection
US20170034459A1 (en) * 2015-07-30 2017-02-02 Motorola Mobility Llc Electronic Device with Image Correction System and Methods Therefor
US10225445B2 (en) * 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
JP7055743B2 (ja) * 2016-08-08 2022-04-18 株式会社小糸製作所 複数カメラを用いた車両用モニタリングシステム
JP6576887B2 (ja) * 2016-08-09 2019-09-18 クラリオン株式会社 車載装置
CN117310741A (zh) * 2017-01-03 2023-12-29 应诺维思科技有限公司 用于检测和分类物体的激光雷达系统和方法
US10757320B2 (en) * 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023000316B4 (de) 2023-02-02 2024-07-11 Mercedes-Benz Group AG Fahrzeug und Verfahren zur Reinigung eines Sensors

Also Published As

Publication number Publication date
US20200274998A1 (en) 2020-08-27
CN111629128A (zh) 2020-09-04
US10771665B1 (en) 2020-09-08

Similar Documents

Publication Publication Date Title
DE102020105059A1 (de) Bestimmung der blockierung einer beleuchtungseinrichtung durch bekannte optische eigenschaften
EP2427855B1 (de) Verfahren zur darstellung von objekten aus der umgebung eines fahrzeugs auf der anzeige einer anzeigevorrichtung
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE102019125303A1 (de) Reinigung des fahrzeugsensors
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
DE102018111265A1 (de) Fahrzeugumgebungs-abbildungssysteme und -verfahren
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102011109440A1 (de) Verfahren zum Justieren und/oder Kalibrieren zumindest eines Scheinwerfers eines Fahrzeugs
DE102015209467A1 (de) Verfahren zur Schätzung von Fahrstreifen
DE102019106845A1 (de) Verschleierungsentfernung für Fahrzeugsensoren
DE102016114535A1 (de) Wegbestimmung für automatisierte Fahrzeuge
DE112019000339T5 (de) Automatisches beleuchtungssystem
DE102019125166A1 (de) Sensorverschmutzungserkennung
WO2019201565A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102014208271A1 (de) Verfahren und Vorrichtung zur bildbasierten Sichtweitenschätzung
DE102019115459A1 (de) Verfahren und vorrichtung zur bewertung einer fahrbahnoberfläche für kraftfahrzeuge
DE102015206936A1 (de) Verfahren und Vorrichtung zum Detektieren von Hindernissen im Fahrweg eines Kraftfahrzeugs
DE102018125801A1 (de) Videokalibrierung
DE102021124810A1 (de) Neuronales fahrzeugnetzwerk
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
WO2017125199A1 (de) Verfahren zum auswerten eines umfeldes eines fahrzeuges

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee