DE102018218015A1 - Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs Download PDF

Info

Publication number
DE102018218015A1
DE102018218015A1 DE102018218015.6A DE102018218015A DE102018218015A1 DE 102018218015 A1 DE102018218015 A1 DE 102018218015A1 DE 102018218015 A DE102018218015 A DE 102018218015A DE 102018218015 A1 DE102018218015 A1 DE 102018218015A1
Authority
DE
Germany
Prior art keywords
vehicle
state
evaluation
image
artificial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018218015.6A
Other languages
English (en)
Inventor
Philip Lenz
Alexander Lengsfeld
Marcel Brueckner
Esther Dietrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018218015.6A priority Critical patent/DE102018218015A1/de
Priority to US16/658,828 priority patent/US11415985B2/en
Priority to CN201911005022.6A priority patent/CN111079508A/zh
Publication of DE102018218015A1 publication Critical patent/DE102018218015A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs (115). Das Verfahren umfasst einen Schritt des Einlesens und einen Schritt des Auswertens. Im Schritt des Einlesens wird ein Bildsignal (130), das ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs (115) umfasst, eingelesen. Im Schritt des Auswertens wird das Bildsignal (130) unter Verwendung eines künstlichen anlernbaren Modells (135), insbesondere eines künstlichen neuronalen Netzes, ausgewertet. Dabei werden zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs (115) repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt wird, die den aktuellen Zustand der Fahrzeugleuchte des Fahrzeugs (115) repräsentiert.

Description

  • Stand der Technik
  • Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Es ist möglich, zu erkennen, ob eine Heckleuchte eines vorausfahrenden Fahrzeugs blinkt. Dazu kann unter Verwendung eines Bildsignals der Heckleuchte des vorausfahrenden Fahrzeugs eine Frequenzuntersuchung eines Intensitätsverlaufs der Heckleuchte erfolgen und es kann eine Wahrscheinlichkeit ermittelt werden, mit der die Heckleuchte aktiv ist, also blinkt.
  • Die US 2017039435 A1 beschreibt ein solches Verfahren zum Erkennen eines Blinkens eines vorausfahrenden Fahrzeugs.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren und eine Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs sowie ein Trainieren eines künstlichen anlernbaren Modells, insbesondere eines künstlichen neuronalen Netzes gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Mit dem hier vorgestellten Ansatz ist es möglich, unter Verwendung eines Bildes einer Rückansicht eines vorausfahrenden Fahrzeugs den Zustand der Fahrzeugleuchten des Fahrzeugs oder auch unter Verwendung eines Bildes einer Vorderansicht eines entgegenkommenden Fahrzeugs den Zustand der Fahrzeugleuchten des Fahrzeugs zu erkennen. Neben einem Blinken kann auch ein Bremsen erkannt werden. Es kann beispielsweise eine Form und Kombination von Heckleuchten klassifiziert werden (Bremen, Warnblinklicht, Bremsen und Blinken, usw.). Die Heckleuchte sollte also zur Erkennung nur zumindest einmal leuchten. Ein Blinken (d. h. ein wiederholtes bzw. zyklisches Ein-/Ausschalten der Leuchte) ist nicht zwingend erforderlich. Dabei ist vorteilhafterweise keine separate Lokalisation oder ein separates Tracking einzelner Fahrzeugleuchten erforderlich. Der Zustand der Fahrzeugleuchten kann unabhängig von einem Design und einem verwendeten Leuchttyp erkannt werden, wodurch beispielsweise auch gepulste Leuchtdioden-Fahrzeugleuchten erkannt werden können. Zudem kann auch eine teilweise defekte Fahrzeugleuchte erkannt werden. Blinkende Fahrzeugleuchten können vorteilhafterweise unabhängig von einer Blinkfrequenz erkannt werden.
  • Es wird ein Verfahren zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs vorgestellt. Das Verfahren weist einen Schritt des Einlesens und einen Schritt des Auswertens auf. Im Schritt des Einlesens wird ein Bildsignal eingelesen, das ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs umfasst. Im Schritt des Auswertens wird das Bildsignal unter Verwendung eines künstlichen anlernbaren Modells, insbesondere eines künstlichen neuronalen Netzes ausgewertet. Dabei werden zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentiert.
  • Bei dem Fahrzeug kann es sich um ein Land- oder Nutzfahrzeug oder um ein anderes Verkehrs- oder Transportmittel handeln, das auch als selbstfahrendes Fahrzeug mit einem automatisierten Fahrbetrieb ausgeführt sein kann. Unter der Fahrzeugleuchte kann eine Fahrzeugbeleuchtung, beispielsweise eine Rückleuchte des Fahrzeugs, also ein Fahrtrichtungsanzeiger, eine Bremsleuchte, eine Rückfahrleuchte oder ein Scheinwerfer wie ein Frontscheinwerfer oder eine Nebelschlussleuchte des Fahrzeugs verstanden werden. Das Bildsignal kann über eine Schnittstelle zu einer Sensoreinrichtung des Fahrzeugs eingelesen werden. Das Bildsignal kann einen Hüllkörper, eine sogenannte Bounding Box, des Fahrzeugbereichs des detektierten Fahrzeugs umfassen. Der Fahrzeugbereich kann beispielsweise ein Fahrzeugheck oder eine Fahrzeugfront sein. Das künstliche anlernbare Modell kann als Modell verstanden werden, welches eine anlernbare Struktur aufweist, die zur Wiedererkennung von Mustern in einem eingelesenen (Bild-) Signal verwendet werden kann. Das künstliche anlernbare Modell kann vereinfacht auch als anlernbares Modell bezeichnet werden. Beispielweise kann das (künstliche) anlernbare Modell als ein künstliches neuronales Netz oder ein einschichtiges, mehrschichtiges oder rekurrentes Netz ausgeführt sein. Alternativ kann der Schritt des Auswertens auch unter Verwendung eines anderen sequentiellen maschinellen Lernverfahrens bzw. eines künstlich anlernbaren Modells erfolgen, wie beispielsweise eines Hidden-Markov-Models (HMM), eines Conditonal-Random-Fields (CRF) oder eines beliebigen rekurrenten neuronalen Netzes (RNN). Diese Lernverfahren bzw. Modelle können dann als dann auch als künstlich anlernbares Modell bzw. als Training eines künstlich anlernbaren Modells verstanden wird. Die zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen können als Zustand beispielsweise einen Betriebszustand der Fahrzeugleuchte wie an oder aus und zusätzlich oder alternativ einen Typ der Fahrzeugleuchte, also eine Identifikation der Leuchtenart, repräsentieren. Als der aktuelle Zustand der Fahrzeugleuchte kann dann beispielsweise „linker Blinker an“ oder „Schlusslicht an“ oder „Rückfahrleuchte aus“ ermittelt werden.
  • Gemäß einer Ausführungsform können im Schritt des Auswertens zumindest zwei weitere je einen Zustand einer weiteren Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen unterschieden werden. Als Auswerteergebnis kann in diesem Fall diejenige weitere Zustandsklasse ermittelt werden, die den aktuellen Zustand der weiteren Fahrzeugleuchte des Fahrzeugs repräsentiert. Dies ist von Vorteil, um mittels des Verfahrens den aktuellen Zustand mehrerer Fahrzeugleuchten zu ermitteln. Beispielsweise kann dadurch der aktuelle Zustand sämtlicher im Fahrzeugbereich sichtbarer Fahrzeugleuchten, beispielsweise sämtlicher Rückleuchten, ermittelt werden, wodurch zwischen verschiedenen Leuchtzuständen, die auch mehrere Fahrzeugleuchten umfassen können, unterscheiden werden kann. So ist es vorteilhafterweise möglich, mittels des Verfahrens ein Blinken von einem Bremsen oder einer Gefahrenbremsung zu unterscheiden.
  • Im Schritt des Einlesens kann das Bildsignal gemäß einer Ausführungsform eingelesen werden, das zumindest zwei Bildteilsignale aufweisen. Die zumindest zwei Bildteilsignale können je unterschiedliche Farbinformationen des Bildsignals enthalten. Der Schritt des Auswertens kann dann unter Verwendung der zumindest zwei Bildteilsignale ausgeführt werden. Als unterschiedliche Farbinformationen können beispielsweise unterschiedliche Bildbereiche enthalten sein, unterschiedliche Farbkanäle des gleichen Bildbereichs, oder Farbhistogramme des Bildbereichs mit einer Unterteilung des Bildbereichs.
  • Zudem können die zumindest zwei Bildteilsignale gemäß einer Ausführungsform im Schritt des Einlesens eingelesen werden, die je den Fahrzeugbereich in einem unterschiedlichen Spektralbereich repräsentieren. Dies ist vorteilhaft in Bezug auf eine deutliche Kontrastierung der Fahrzeugleuchten. Zusätzlich oder alternativ können die zumindest zwei Bildteilsignale im Schritt des Einlesens unterschiedliche Fahrzeugteilbereiche des detektierten Fahrzeugs repräsentieren. Als Fahrzeugteilbereiche können beispielsweise Farbhistogramme von Bildbereichen einer Fahrzeugsilhouette oder einer Bounding Box des Fahrzeugs verwendet werden. Dies ist vorteilhaft in Bezug auf ein Erkennen einer räumlichen Information des Bildsignals.
  • Der Schritt des Auswertens kann gemäß einer Ausführungsform unter Verwendung eines rückgekoppelten anlernbaren Modells insbesondere eines rückgekoppelten neuronalen Netzes, als das künstliche neuronale Netz ausgeführt werden. Dazu kann das rückgekoppelte anlernbare Modell beispielsweise ein langes Kurzzeitgedächtnis, ein sogenanntes „Long short-term memory“ (LSTM) aufweisen, oder eine „gating recurrent unit“ (GRU).
  • Auch kann im Schritt des Einlesens gemäß einer Ausführungsform ein Detektionssignal eingelesen werden. Das Detektionssignal kann ein erstmaliges Erkennen des Fahrzeugs repräsentieren. Im Schritt des Auswertens kann ansprechend auf das Detektionssignal ein Versetzen des rückgekoppelten anlernbaren Modells in einen vorbestimmten Zustand erfolgen. Das rückgekoppelte anlernbare Modell kann dazu in einen Basiszustand versetzt werden, beispielsweise in einen Ausgangszustand nach einem erfolgten Trainieren des künstlichen anlernbaren Modells. Dies verhindert vorteilhafterweise, dass Werte vorausgegangener Verfahren zum Ermitteln des Zustands der Fahrzeugleuchte des Fahrzeugs nachfolgende Verfahren beeinflussen.
  • Ferner kann gemäß einer Ausführungsform im Schritt des Einlesens das Bildsignal das Kamerabild mit einem Fahrzeugbereich eines weiteren detektierten Fahrzeugs umfassen. Im Schritt des Auswertens können dabei zumindest zwei je einen Zustand einer Fahrzeugleuchte des weiteren Fahrzeugs repräsentierende Zustandsklassen unterschieden werden. Als Auswerteergebnis kann dann diejenige Zustandsklasse ermittelt werden, die den aktuellen Zustand der Fahrzeugleuchte des weiteren Fahrzeugs repräsentiert. Dadurch ist es vorteilhafterweise möglich, den Zustand der Fahrzeugleuchten mehrerer Fahrzeuge zu ermitteln, um beispielsweise in einer Verkehrssituation mit mehreren Verkehrsteilnehmern zu einer Situationseinschätzung zu kommen. Dies kann insbesondere für eine Verwendung in einem Fahrzeug mit automatisiertem Fahrbetrieb vorteilhaft sein.
  • Wenn das weitere Fahrzeug detektiert ist, kann gemäß einer Ausführungsform zum Ermitteln des Zustands der Fahrzeugleuchte des weiteren Fahrzeugs der Schritt des Auswertens unter Verwendung eines weiteren künstlichen anlernbaren Modells, insbesondere eines weiteren künstlichen neuronalen Netzes ausgeführt werden. Beispielsweise kann für jedes im Bildsignal repräsentierte detektierte Fahrzeug je ein künstliches anlernbares Modell oder neuronales Netz initialisiert werden, um den Zustand der Fahrzeugleuchten der detektierten Fahrzeuge zu ermitteln.
  • Im Schritt des Auswertens kann gemäß einer Ausführungsform zudem das Auswerteergebnis unter Verwendung der Funktion argumentum maximi ermittelt werden. Dies ist vorteilhaft, um eine Konfidenz des ermittelten Zustands der Fahrzeugleuchte zu bestimmen.
  • Das Verfahren kann gemäß einer Ausführungsform auch einen Schritt des Ausgebens eines Auswertesignals umfassen. Das Auswertesignal kann das Auswerteergebnis repräsentieren. Zudem kann das Auswertesignal als visuelles und zusätzlich oder alternativ als auditives Signal ausgegeben werden. Das Auswertesignal kann beispielsweise über eine Schnittstelle zu einer Anzeigeeinrichtung des Fahrzeugs bereitgestellt werden. Zum Anzeigen des aktuellen Zustands der Fahrzeugleuchte des Fahrzeugs kann beispielsweise das Kamerabild mit dem detektierten Fahrzeug oder die Bounding Box des Fahrzeugs auf der Anzeigeeinrichtung des Fahrzeugs angezeigt werden, und der Zustand der Fahrzeugleuchte kann beispielsweise farbig und symbolisch angezeigt werden, beispielsweise durch einen farbigen Pfeil an einer Stelle einer aktiven Fahrzeugleuchte des angezeigten Fahrzeugs, um beispielsweise einen mittels des ermittelten Zustands der Fahrzeugleuchte erkannten Blinkvorgang oder Bremsvorgang zu visualisieren. Vorteilhafterweise kann einem Fahrer des Fahrzeugs das Auswerteergebnis somit deutlich und zeitsparend bereitgestellt werden.
  • Mit diesem Ansatz wird zudem ein Verfahren zum Anlernen eines künstlichen anlernbaren Modells, insbesondere eines künstlichen neuronalen Netzes, zum Auswerten eines Bildsignals vorgestellt. Das Verfahren umfasst einen Schritt des Einlesens und einen Schritt des Trainierens. Im Schritt des Einlesens werden ein Bildsignal und ein Zielsignal eingelesen. Das Bildsignal umfasst ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs. Das Zielsignal repräsentiert eine Zustandsklasse einer Fahrzeugleuchte des Fahrzeugs. Die Zustandsklasse entspricht dabei einem in dem Bildsignal abgebildeten Zustand der Fahrzeugleuchte. Im Schritt des Trainierens wird das künstliche anlernbare Modell, insbesondere das künstliche neuronale Netz derart trainiert, dass das künstliche anlernbare Modell ansprechend auf das Bildsignal die Zustandsklasse erkennt. Dabei kann das künstliche anlernbare Modell dazu trainiert werden, um zumindest zwischen zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierenden Zustandsklassen zu unterscheiden.
  • Die hier vorgestellten Verfahren können beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
    • 1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte des Fahrzeugs gemäß einem Ausführungsbeispiel;
    • 2 ein Ablaufdiagramm eines Verfahrens zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel;
    • 3 ein Ablaufdiagramm eines Verfahrens zum Ermitteln eines Zustands von Fahrzeugleuchten von mehreren Fahrzeugen gemäß einem Ausführungsbeispiel;
    • 4 und 5 je eine schematische Darstellung eines Verfahrens zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel;
    • 6 bis 8 je eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel;
    • 9 und 10 je eine schematische Darstellung eines künstlichen anlernbaren Modells gemäß einem Ausführungsbeispiel; und
    • 11 ein Ablaufdiagramm eines Verfahrens zum Anlernen eines künstlichen anlernbaren Modells zum Auswerten eines Bildsignals gemäß einem Ausführungsbeispiel.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung eines ersten Fahrzeugs 100 mit einer Vorrichtung 105 zum Ermitteln eines Zustands einer Fahrzeugleuchte 110 eines zweiten Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Die Vorrichtung 105 umfasst eine Einleseeinrichtung 120 und eine Auswerteeinrichtung 125. Die Einleseeinrichtung 120 ist ausgebildet, ein Bildsignal 130 einzulesen. Das Bildsignal 130 umfasst ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs, dem hier gezeigten zweiten Fahrzeug 115. Die Auswerteeinrichtung 125 ist dazu ausgebildet, unter Verwendung eines künstlichen anlernbaren Modells 135 das Bildsignal 130 auszuwerten. Im weiteren Verlauf der Beschreibung wird aus Gründen der einfacheren Erläuterung die Erfindung am Beispiel eines künstlichen neuronalen Netzes als dem künstlich anlernbaren Modell beschrieben, wobei der Fachmann auch nach den vorausgegangenen Ausführungen zweifelsfrei erkennen wird, dass auch ein anderes künstlich anlernbares Modell wie beispielsweise das Hidden-Markow-Modell oder dergleichen anstelle oder zusätzlich zu dem künstlichen neuronalen Netz verwendet werden kann. Der Einfachheit halber wird daher auch das künstliche neuronale Netz stellvertretend bzw. synonym für das künstlich anlernbare Modell unter dem Bezugszeichen 135 verstanden bzw. beschrieben, wobei die Struktur des jeweiligen Modells als künstliches neuronales Netz oder als andere Auslegungsform für das künstliche anlernbare Modell für die Beschreibung und das Verständdnis der hier vorgestellten Erfindung von untergeordneter Bedeutung ist.
  • Dabei werden zumindest zwei je einen Zustand der Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 repräsentiert.
  • Gemäß dem hier gezeigten Ausführungsbeispiel wird das Auswerteergebnis in Form eines Auswertesignals 140 bereitgestellt. Das Bildsignal 130 wird beispielshaft von einer Umfelderfassungseinrichtung 145 des Fahrzeugs 100 bereitgestellt. Die Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 ist beispielhaft als Rückleuchte ausgeführt. Mittels der hier gezeigten Vorrichtung 105 ist es vorteilhafterweise möglich, den Zustand verschiedener Leuchttypen zu ermitteln. Dadurch ist es möglich, beispielsweise nicht nur ein Blinken des vorausfahrenden Fahrzeugs 115 zu erkennen, sondern auch einen Bremsvorgang oder eine Gefahrenbremsung. Dies ist möglich, da die hier gezeigte Vorrichtung 105 ohne eine Intensitätsbetrachtung der Fahrzeugleuchte 110 mit anschließender Fourier Transformation und ohne Frequenzanalyse zum Erkennen eines handelsüblichen Blinkers auskommt. Dabei ist keine exakte Lokalisierung einer Position der Fahrzeugleuchte 110 und kein separates Tracking einzelner Fahrzeugleuchten 110 erforderlich. Unter Verwendung des Bildsignals 130 ist es möglich, unabhängig von einem Design und einem verwendeten Leuchtentyp wie beispielsweise gepulste Leuchtdioden-Rückleuchten, den Zustand der Fahrzeugleuchte 110 zu ermitteln. Zudem ist die Vorrichtung 105 auch ausgebildet, eine teilweise defekte Fahrzeugleuchte 110 oder einen schnell blinkenden Blinker als Fahrzeugleuchte 110 zu erkennen, um den aktuellen Zustand der Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 zu ermitteln. Die Vorrichtung 105 ist bei Tag und bei Nacht einsetzbar. Zudem ist kein Zwischenspeichern von vorausgegangenen Kamerabildern oder Bildpatches des Bildsignals 130 erforderlich, beispielsweise um Differenzbilder berechnen zu können, was insbesondere bei einer Verwendung einer anwendungsspezifischen integrierten Schaltung für die Vorrichtung 105 kostensparend ist.
  • 2 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel. Das Verfahren 200 weist zumindest einen Schritt 205 des Einlesens und einen Schritt 210 des Auswertens auf. Im Schritt 205 des Einlesens wird ein Bildsignal eingelesen, das ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs umfasst. Im Schritt 210 des Auswertens wird das Bildsignal unter Verwendung eines künstlichen neuronalen Netzes ausgewertet. Dabei werden zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentiert.
  • Gemäß einem Ausführungsbeispiel umfasst das Verfahren 200 zudem einen Schritt 215 des Ausgebens eines Auswertesignals. Das Auswertesignal repräsentiert das Auswerteergebnis des Schritts 210 des Auswertens. Das Auswertesignal wird als visuelles und zusätzlich oder alternativ als auditives Signal ausgegeben. Dies ist beispielhaft anhand der nachfolgenden 6 bis 8 gezeigt.
  • 3 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Ermitteln eines Zustands von Fahrzeugleuchten von mehreren Fahrzeugen 115, 305, 310 gemäß einem Ausführungsbeispiel. Gezeigt ist ein Ablauf einer Fahrzeugleuchtenklassifikation für mehrere Fahrzeuge 115, 305, 310. Das Verfahren 200 wird zum Ermitteln des Zustands der Fahrzeugleuchten mehrerer Fahrzeuge 115, 305, 310 in Teilschritten durchgeführt. Gemäß einem Ausführungsbeispiel umfasst im Schritt 205 des Einlesens das Bildsignal ein Kamerabild 315 mit dem Fahrzeugbereich des detektierten Fahrzeugs 115 und mit einem Fahrzeugbereich eines weiteren detektierten Fahrzeugs 305. Hier umfasst das Kamerabild 315 beispielhaft einen Fahrzeugbereich eines dritten detektierten Fahrzeugs 310. Zum Auswerten des Bildsignals mit den drei detektierten Fahrzeugen 115, 305, 310 werden je detektiertem Fahrzeug 115, 305, 310 im Schritt 210 des Auswertens zumindest zwei je einen Zustand einer Fahrzeugleuchte des weiteren Fahrzeugs 305, 310 repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte des weiteren Fahrzeugs 305, 310 repräsentiert.
  • Gemäß dem hier gezeigten Ausführungsbeispiel wird der Schritt 210 des Auswertens je weiterem detektiertem Fahrzeug 305, 310 unter Verwendung eines weiteren künstlichen neuronalen Netzes ausgeführt. Dazu wird der Schritt 210 je detektiertem Fahrzeug 115, 305, 310 in Teilschritten durchgeführt. Das Kamerabild 315 wird hier beispielhaft als Bounding Box der Fahrzeuge 115, 305, 310 bereitgestellt. Für jedes detektierte Fahrzeug 115, 305, 310, und damit für jede Bounding Box der Fahrzeuge 115, 305, 310 wird jeweils ein künstliches neuronales Netzes initialisiert. Bei den hier beispielhaft gezeigten drei Fahrzeugen 115, 305, 310 laufen also drei künstliche neuronale Netze parallel, wobei jeweils ein Fahrzeug von einem künstlichen neuronalen Netz betrachtet wird, um den Zustand der Fahrzeugleuchten zu ermitteln. Die Anzahl der maximal detektierten Fahrzeuge lässt sich dabei beliebig festsetzen, entsprechend einer Anzahl an künstlichen neuronalen Netzen.
  • Zudem wird hier anschließend an das Ermitteln des Zustands der Fahrzeugleuchten der Fahrzeuge 115, 305, 310 der optionale Schritt 215 des Ausgebens des Auswertesignals ausgeführt. In drei Teilschritten wird dabei jeweils das Auswerteergebnis der Teilschritte des Schritts 210 des Auswertens ausgegeben.
  • 4 zeigt eine schematische Darstellung eines Verfahrens 200 zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Gezeigt ist das Ermitteln des Zustands der Fahrzeugleuchte des Fahrzeugs 115 auf Basis von Bildbereichen des Kamerabildes 315. Das Kamerabild 315 zeigt hier beispielhaft ein Fahrzeugheck des detektierten Fahrzeugs 115.
  • Der Schritt des Auswertens wird gemäß dem hier gezeigten Ausführungsbeispiel unter Verwendung eines rückgekoppelten neuronalen Netzes 405 als das künstliche neuronale Netz ausgeführt. Das künstliche neuronale Netz umfasst hier zumindest eine langes-Kurzzeitgedächtnis-Schicht, ein „long short-term memory-Layer“ (LSTM-Layer) als rückgekoppeltes neuronales Element.
  • Zudem wird im Schritt des Einlesens gemäß dem hier gezeigten Ausführungsbeispiel ein Detektionssignal 410 eingelesen. Das Detektionssignal 410 repräsentiert ein erstmaliges Erkennen des Fahrzeugs 115. Es wird also geprüft, ob das Fahrzeug 115 zum ersten Mal detektiert wird. Im Schritt des Auswertens erfolgt dann ansprechend auf das Detektionssignal 410 ein Versetzen des rückgekoppelten neuronalen Netzes 405 in einen vorbestimmten Zustand. Dazu wird das rückgekoppelte neuronale Netz 405 in einen Basiszustand zurückgesetzt. Das rückgekoppelte neuronale Netz 405 wird beispielsweise in einen Ausgangszustand nach einem erfolgten Trainieren des künstlichen neuronalen Netzes versetzt.
  • Gemäß dem hier gezeigten Ausführungsbeispiel weist das Bildsignal 130 im Schritt des Einlesens zumindest zwei Bildteilsignale 415 auf. Die zumindest zwei Bildteilsignale 415 enthalten je unterschiedliche Farbinformationen des Bildsignals 130. Der Schritt des Auswertens wird in diesem Fall unter Verwendung der zumindest zwei Bildteilsignale 415 ausgeführt.
  • Die zumindest zwei Bildteilsignale 415 repräsentieren je den Fahrzeugbereich des Fahrzeugs 115 in einem unterschiedlichen Spektralbereich. Hier weist das Bildsignal 130 beispielhaft drei Bildteilsignale 415 auf, die je einen unterschiedlichen Farbkanal des Fahrzeugbereichs repräsentieren. Zusätzlich oder alternativ repräsentieren die zumindest zwei Bildteilsignale 415 unterschiedliche Fahrzeugteilbereiche des detektierten Fahrzeugs 115, wie anhand der folgenden 5 gezeigt.
  • Im Schritt des Auswertens werden zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs 115 repräsentierende Zustandsklassen 420 unterschieden. Gemäß einem Ausführungsbeispiel werden zumindest zwei weitere je einen Zustand einer weiteren Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen 420 unterschieden. Als Auswerteergebnis werden in diesem Fall diejenigen Zustandsklassen 420 ermittelt, die jeweils den aktuellen Zustand der Fahrzeugleuchte und der weiteren Fahrzeugleuchte repräsentieren. Gemäß dem hier gezeigten Ausführungsbeispiel weist das detektierte Fahrzeug 115 beispielhaft sechs verschiedenen Fahrzeugleuchtentypen auf: einen linken Blinker, einen rechten Blinker, ein Bremslicht, eine Rückfahrleuchte, ein Schlusslicht und einen Nebelscheinwerfer. Im Schritt des Auswertens wird entsprechend zwischen sechs verschiedenen Fahrzeugleuchtentypen unterschieden. Zudem wird jeweils der Betriebszustand der Fahrzeugleuchte (Fahrzeugleuchte an oder aus) unterschieden. Somit wird zwischen zwölf je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen 420 unterschieden: Linker Blinker an, Linker Blinker aus, rechter Blinker an, rechter Blinker aus, Bremslicht an, Bremslicht aus, Rückfahrleuchte an, Rückfahrleuchte aus, Schlusslicht an, Schlusslicht aus, Nebelscheinwerfer an, Nebelscheinwerfer aus. Das Auswerteergebnis kann beispielsweise die Zustandsklasse 420 sämtlicher Fahrzeugleuchten umfassen. Vorteilhafterweise ist somit mittels des hier gezeigten Verfahrens 200 und somit mittels eines einzigen Verfahrens 200 eine Klassifikation des Zustandes sämtlicher Rückleuchten des Fahrzeugs 115 möglich. Somit ist es mit Hilfe des Verfahrens 200 möglich, zwischen verschiedenen Rückleuchtenzuständen wie einem Blinken, einem Bremsen oder einer Gefahrenbremsung zu unterscheiden. Eine Ausgabe des Auswerteergebnisses umfasst entsprechend den Zustand aller Fahrzeugleuchten des Fahrzeugs 115 im erfassten Fahrzeugbereich des Fahrzeugs 115, beispielsweise den Zustand aller Rückleuchten.
  • Das Klassifikationsergebnis der Fahrzeugleuchten des rückgekoppelten neuronalen Netzes 405 wird gemäß einem Ausführungsbeispiel über ein argmax, also unter Verwendung der Funktion argumentum maximi, bestimmt, wodurch für jeden ermittelten Zustand der Zustandsklassen 420 eine Konfidenz ermittelt wird, die optional mit dem Auswerteergebnis ausgegeben wird.
  • 5 zeigt eine schematische Darstellung eines Verfahrens 200 zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel. Der hier gezeigte Ablauf des Verfahrens 200 ähnelt dem anhand von 4 beschriebenen Ausführungsbeispiel, mit dem Kamerabild 315 mit dem detektierten Fahrzeug 115, dem Detektionssignal 410, dem rückgekoppelten neuronalem Netz 405 und den zwölf Zustandsklassen der Fahrzeugleuchte des Fahrzeugs 115.
  • Gemäß dem hier gezeigten Ausführungsbeispiel repräsentieren die zumindest zwei mit dem Bildsignal 130 eingelesenen Bildteilsignale 415 hier jedoch unterschiedliche Fahrzeugteilbereiche 505 des detektierten Fahrzeugs 115. Dazu wird der mit dem Kamerabild 315 erfasste Fahrzeugbereich des Fahrzeugs 115 in mehrere Bildbereiche aufgeteilt. Hier ist der Fahrzeugbereich beispielhaft in drei Spalten aufgeteilt, Leuchtenpositionen (rechts, Mitte, links) des Fahrzeugs 115 entsprechend. Die den Bildteilsignalen 415 entsprechenden drei Fahrzeugteilbereiche werden hier durch je drei Farbhistogramme 510 in drei unterschiedlichen Farben repräsentiert. Als Input für das rückgekoppelte neuronale Netz 405 werden entsprechend neun Farbhistogramme 510 eingelesen. Basis der Farbhistogramme 510 sind die Bildbereiche, die Fahrzeugteilbereiche 505, einer Fahrzeugsilhouette oder Bounding Box des Fahrzeugs 115, die zwecks einer räumlichen Information des Fahrzeugbereichs in mehrere Bildteile, hier beispielhaft drei Fahrzeugteilbereiche 505, unterteilt wird.
  • 6 zeigt eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte 605 eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Es ist eine Ansicht aus einem Innenraum des ersten Fahrzeugs aus einer Blickrichtung eines Fahrers des ersten Fahrzeugs auf das detektierte Fahrzeug 115 gezeigt. In dem Innenraum des ersten Fahrzeugs ist eine Anzeigeeinrichtung 610 angeordnet, auf der beispielhaft das Kamerabild 315 des Bildsignals und damit die Detektion eines Fahrzeughecks des Fahrzeugs 115 als Bounding Box angezeigt wird.
  • Gemäß dem hier gezeigten Ausführungsbeispiel wird das Auswerteergebnis des Verfahrens zum Ermitteln des Zustands der Fahrzeugleuchte 605 des Fahrzeugs 115 in Form eines Auswertesignals 615 ausgegeben. Das Auswertesignal 615 repräsentiert das Auswerteergebnis und wird hier als visuelles Signal auf der Anzeigeeinrichtung 610 ausgegeben. Zusätzlich oder alternativ kann das Auswertesignals 615 auch als auditives Signal ausgegeben werden. Das detektierte Fahrzeug 115 bremst in dem hier gezeigten Ausführungsbeispiel, es sind somit beispielhaft drei Fahrzeugleuchten 615 des Fahrzeugs 115 aktiv. Zusätzlich zu einem auch auf der Anzeigeeinrichtung 610 erkennbarem Aufleuchten der Fahrzeugleuchten 605 wird das Bremsen des Fahrzeugs 115 mittels des Auswertesignals 615 visuell signalisiert, hier beispielhaft durch einen nach unten zeigenden roten Pfeil an der Bounding Box des Fahrzeugshecks des auf der Anzeigeeinrichtung 610 angezeigten Fahrzeugs.
  • 7 zeigt eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte 605 eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Das hier gezeigte Ausführungsbeispiel ähnelt dem anhand von 6 beschriebenen Ausführungsbeispiel, mit einem anderen Zustand der Fahrzeugleuchten 605 des detektierten Fahrzeugs 115, das hier nicht bremst, sondern links blinkt. Dies ist hier beispielhaft durch das Anzeigen des Auswertesignals 615 auf der Anzeigeeinrichtung 610 in Form des Kamerabildes 315 mit der Bounding Box des Fahrzeugbereichs des detektierten Fahrzeugs gezeigt. Zum Visualisieren des Blinkvorgangss ist hier beispielhaft ein in Blinkrichtung gerichteter orangener Pfeil an der Bounding Box des Fahrzeugshecks gezeigt.
  • 8 zeigt eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte 605 eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Das hier gezeigte Ausführungsbeispiel ähnelt den anhand der 6 und 7 beschriebenen Ausführungsbeispielen, wobei das detektierte Fahrzeug 115 hier rechts blinkt. Dies ist hier beispielhaft durch das Anzeigen des Auswertesignals 615 auf der Anzeigeeinrichtung 610 in Form des Kamerabildes 315 mit der Bounding Box des Fahrzeugbereichs des detektierten Fahrzeugs mit einem entsprechend der Blinkrichtung nach rechts zeigenden orangenen Pfeil zum Visualisieren des ermittelten Zustands der Fahrzeugleuchten 605 des detektierten Fahrzeugs 115.
  • 9 zeigt eine schematische Darstellung eines künstlichen anlernbaren Modells 135 gemäß einem Ausführungsbeispiel. Es ist eine beispielhafte Architektur für eine Unterscheidung von vier Zustandsklassen gezeigt. Als Input für das künstliche anlernbare Modell 135 bzw. das neuronale Netz, werden hier Bildpatches als Bildsignal wie anhand der 4 beschrieben vorausgesetzt. Gezeigt ist ein Convolutional Neural Network, auch faltendes neuronales Netzwerk genannt. Das künstliche neuronale Netz als anlernbares Modell 135 weist hier ein Convolution Layer 905 auf, mit einem Filter 16, einer Kernel Size 6x6 und einem Stride 2. Das Convolution Layer 905 ist mit einer „batch normalization“ 910 verknüpft, dessen Output in einem weiteren Convolution Layer 915 verarbeitet wird, das mit einer weiteren „batch normalization“ 920 verknüpft ist, gefolgt von einem Max-Pooling-Layer 925, mit einer Größe (Pool-Size) von 2x2 und einem Stride 2. Das Max-Pooling-Layer 925 weist einen Dropout von 0,5 auf und ist mit einem rückgekoppelten Element 930, einem LSTM-Layer 10 verknüpft mit einem Dropout von 0,6 und einem Dropout von 0,25, gefolgt von zwei voll verbundenen Schichten 935 und 940, einem Dense-Layer 10 und einem Dense-Layer 4, wobei zwischen den Schichten 935 und 940 ein Dropout von 0,8 erfolgt.
  • 10 zeigt eine schematische Darstellung eines künstlichen anlernbaren Modells 135 in der Form eines neuronalen Netzes gemäß einem Ausführungsbeispiel. Es ist eine beispielhafte Architektur für eine Unterscheidung von vier Zustandsklassen gezeigt. Als Input für das künstliche neuronale Netzes 135 werden hier Bildpatches als Bildsignal wie anhand der 4 beschrieben vorausgesetzt. Gezeigt ist ein künstliches neuronales Netz 135 auf Basis der Inceptionidee. Das künstliche neuronale Netz 135 weist hier ein erstes Convolution Layer 1005 auf, mit einem Filter 32, einer Kernel Size 3x3 und einem Stride 2, das mit einem zweiten Convolution Layer 1010 mit einem Filter 32, einer Kernel Size 2x2 und einem Stride 1 verknüpft ist. Der Output des zweiten Convolution Layers 1010 wird in einer nächsten Schicht mit dem dritten Convolution Layer 1015, dem vierten Convolution Layer 1020 und dem fünften Convolution Layer 1025 verarbeitet. Das dritte Convolution Layer 1015 weist einen Filter 64, eine Kernel Size 1x1 und einen Stride 2 auf, das vierte Convolution Layer 1020 weist einen Filter 64, eine Kernel Size 3x3 und einen Stride 2 auf, und das fünfte Convolution Layer 1025 weist einen Filter 64, eine Kernel Size 5x5 und einen Stride 2 auf. Danach folgt ein Max-Pooling-Layer 1030 mit einem Pool-Size 2x2 und einem Stride 2 und einem Dropout von 0,6. Das Max-Pooling-Layer 1030 ist verknüpft mit einer „Batch Normalization“ 1035. Es folgt eine Wiederholung einer vergleichbaren Struktur mit einer weiteren Schicht mit einem sechsten Convolution Layer 1040, einem siebten Convolution Layer 1045 und einem achten Convolution Layer 1050, verknüpft mit einem weiteren Max-Pooling-Layer 1055 mit einem Pool-Size 2x2 und einem Stride 2. Das sechste Convolution Layer 1040 weist einen Filter 128, eine Kernel Size 3x3 und einen Stride 2 auf, das siebte Convolution Layer 1045 weist einen Filter 128, eine Kernel Size 1x1 und einen Stride 2 auf, und das achte Convolution Layer 1050 weist einen Filter 128, eine Kernel Size 5x5 und einen Stride 2 auf. Das Max-Pooling-Layer 1050 ist mit einem einem rückgekoppelten Element 1060, einem LSTM-Layer 16 verknüpft mit einem Dropout von 0,6 und einem Dropout von 0,4, gefolgt von zwei voll verbundenen Schichten 1065 und 1070, einem Dense-Layer 10 und einem Dense-Layer 4, wobei zwischen den Schichten 1065 und 1070 ein Dropout von 0,7 erfolgt.
  • 11 zeigt ein Ablaufdiagramm eines Verfahrens 1100 zum Anlernen eines künstlichen anlernbaren Modell zum Auswerten eines Bildsignals gemäß einem Ausführungsbeispiel. Das Verfahren 1100 umfasst einen Schritt 1105 des Einlesens und einen Schritt 1110 des Trainierens. Im Schritt 1105 des Einlesens werden ein Bildsignal und ein Zielsignal eingelesen. Das Bildsignal umfasst ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs. Das Zielsignal repräsentiert eine Zustandsklasse einer Fahrzeugleuchte des Fahrzeugs. Die Zustandsklasse entspricht dabei einem in dem Bildsignal abgebildeten Zustand der Fahrzeugleuchte. Im Schritt 1110 des Trainierens wird das künstliche anlernbare Modell derart trainiert, dass das künstliche anlernbare Modell ansprechend auf das Bildsignal die Zustandsklasse erkennt.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2017039435 A1 [0003]

Claims (14)

  1. Verfahren (200) zum Ermitteln eines Zustands einer Fahrzeugleuchte (605) eines Fahrzeugs (115), wobei das Verfahren (200) folgende Schritte aufweist: Einlesen (205) eines Bildsignals (130), das ein Kamerabild (315) mit einem Fahrzeugbereich eines detektierten Fahrzeugs (115) umfasst; und Auswerten (210) des Bildsignals (130) unter Verwendung eines künstlichen anlernbaren Modells (135), insbesondere eines künstlichen neuronalen Netzes, wobei zumindest zwei je einen Zustand der Fahrzeugleuchte (605) des Fahrzeugs (115) repräsentierende Zustandsklassen (420) unterschieden werden, wobei als Auswerteergebnis diejenige Zustandsklasse (420) ermittelt wird, die den aktuellen Zustand der Fahrzeugleuchte (605) des Fahrzeugs (115) repräsentiert.
  2. Verfahren (200) gemäß Anspruch 1, wobei im Schritt (210) des Auswertens zumindest zwei weitere je einen Zustand einer weiteren Fahrzeugleuchte (605) des Fahrzeugs (115) repräsentierende Zustandsklassen (420) unterschieden werden, wobei als Auswerteergebnis diejenige weitere Zustandsklasse (420) ermittelt wird, die den aktuellen Zustand der weiteren Fahrzeugleuchte (605) des Fahrzeugs (115) repräsentiert.
  3. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, wobei im Schritt (205) des Einlesens das Bildsignal (130) eingelesen wird, das zumindest zwei Bildteilsignale (415) aufweist, die je unterschiedliche Farbinformationen des Bildsignals (130) enthalten, wobei der Schritt (210) des Auswertens unter Verwendung der zumindest zwei Bildteilsignale (415) ausgeführt wird.
  4. Verfahren (200) gemäß Anspruch 3, wobei im Schritt (205) des Einlesens die zumindest zwei Bildteilsignale (415) eingelesen werden, die je den Fahrzeugbereich in einem unterschiedlichen Spektralbereich repräsentieren und/oder wobei im Schritt (205) des Einlesens die zumindest zwei Bildteilsignale (415) unterschiedliche Fahrzeugteilbereiche (505) des detektierten Fahrzeugs (115) repräsentieren.
  5. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, wobei der Schritt (210) des Auswertens unter Verwendung eines rückgekoppelten anlernbaren Modells (405), insbesondere eines rückgekoppelten neuronalen Netzes als das künstliche anlernbare Modell (135), insbesondere das künstliche neuronale Netz, ausgeführt wird.
  6. Verfahren (200) gemäß Anspruch 5, wobei im Schritt (205) des Einlesens ein Detektionssignal (410) eingelesen wird, das ein erstmaliges Erkennen des Fahrzeugs (115) repräsentiert, wobei im Schritt (210) des Auswertens ansprechend auf das Detektionssignal (410) ein Versetzen des rückgekoppelten anlernbaren Modells (405) in einen vorbestimmten Zustand erfolgt.
  7. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, wobei im Schritt (205) des Einlesens das Bildsignal (130) das Kamerabild (315) mit einem Fahrzeugbereich eines weiteren detektierten Fahrzeugs (305, 310) umfasst und wobei im Schritt (210) des Auswertens zumindest zwei je einen Zustand einer Fahrzeugleuchte (605) des weiteren Fahrzeugs (305, 310) repräsentierende Zustandsklassen (420) unterschieden werden, wobei als Auswerteergebnis diejenige Zustandsklasse (420) ermittelt wird, die den aktuellen Zustand der Fahrzeugleuchte (605) des weiteren Fahrzeugs (305, 310) repräsentiert.
  8. Verfahren (200) gemäß Anspruch 7, wobei der Schritt (210) des Auswertens unter Verwendung eines weiteren künstlichen anlernbaren Modells, insbesondere eines weiteren künstlichen neuronalen Netzes ausgeführt wird.
  9. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, wobei im Schritt (210) des Auswertens das Auswerteergebnis unter Verwendung der Funktion argumentum maximi ermittelt wird.
  10. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (215) des Ausgebens eines Auswertesignals (615), das das Auswerteergebnis repräsentiert, wobei das Auswertesignal (615) als visuelles und/oder auditives Signal ausgegeben wird.
  11. Verfahren (1110) zum Anlernen eines künstlichen anlernbaren Modells (135), insbesondere eines künstlichen neuronalen Netzes, zum Auswerten (210) eines Bildsignals (130), wobei das Verfahren (1110) zumindest folgende Schritte aufweist: Einlesen (1105) eines Bildsignals (130), das ein Kamerabild (315) mit einem Fahrzeugbereich eines detektierten Fahrzeugs (115) umfasst, und eines Zielsignals, das eine Zustandsklasse (420) einer Fahrzeugleuchte (605) des Fahrzeugs (115) repräsentiert, die einem in dem Bildsignal (130) abgebildeten Zustand der Fahrzeugleuchte (605) entspricht; und Trainieren (1110) des künstlichen anlernbaren Modells (135), insbesondere des künstlichen neuronalen Netzes, derart, dass das künstliche anlernbare Modell (135) ansprechend auf das Bildsignal (130) die Zustandsklasse (420) erkennt.
  12. Vorrichtung (105), die eingerichtet ist, um die Schritte des Verfahrens (200) gemäß einem der Ansprüche 1 bis 10 oder des Verfahrens (1110) gemäß Anspruch 11 in entsprechenden Einheiten (120, 125) auszuführen und/oder anzusteuern.
  13. Computerprogramm, das dazu eingerichtet ist, das Verfahren (200) gemäß einem der Ansprüche 1 bis 10 oder das Verfahren (1110) gemäß Anspruch 11 auszuführen und/oder anzusteuern.
  14. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 13 gespeichert ist.
DE102018218015.6A 2018-10-22 2018-10-22 Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs Pending DE102018218015A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018218015.6A DE102018218015A1 (de) 2018-10-22 2018-10-22 Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs
US16/658,828 US11415985B2 (en) 2018-10-22 2019-10-21 Method and device for ascertaining a state of a vehicle light of a vehicle
CN201911005022.6A CN111079508A (zh) 2018-10-22 2019-10-22 用于求取车辆的车灯的状态的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018218015.6A DE102018218015A1 (de) 2018-10-22 2018-10-22 Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102018218015A1 true DE102018218015A1 (de) 2020-04-23

Family

ID=70279136

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018218015.6A Pending DE102018218015A1 (de) 2018-10-22 2018-10-22 Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs

Country Status (3)

Country Link
US (1) US11415985B2 (de)
CN (1) CN111079508A (de)
DE (1) DE102018218015A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021124560A1 (de) 2021-09-22 2023-03-23 Marelli Automotive Lighting Reutlingen (Germany) GmbH Steuereinrichtung für eine LED-Lichtquellenanordnung und Verfahren zur Programmierung einer Steuereinrichtung
CN117935173A (zh) * 2024-03-21 2024-04-26 安徽蔚来智驾科技有限公司 目标车辆的识别方法、场端服务器及可读存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10882449B2 (en) * 2017-10-03 2021-01-05 Ford Global Technologies, Llc Vehicle light platoon
US10776655B1 (en) * 2019-04-09 2020-09-15 Banjo, Inc. Estimating color of vehicles on a roadway
CN111723690B (zh) * 2020-06-03 2023-10-20 北京全路通信信号研究设计院集团有限公司 一种电路设备状态监测方法和系统
US11741722B2 (en) * 2020-09-04 2023-08-29 International Business Machines Corporation Coarse-to-fine attention networks for light signal detection and recognition
CA3199555A1 (en) * 2020-10-01 2022-04-01 Redarc Technologies Pty Ltd Brake controller for a towed vehicle with combined brake and turn lights
CN112949578B (zh) * 2021-03-30 2023-04-07 苏州科达科技股份有限公司 车灯状态识别方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039435A1 (en) 2013-06-26 2017-02-09 Google Inc. Vision-Based Indicator Signal Detection Using Spatiotemporal Filtering

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163017B2 (en) * 2017-09-01 2018-12-25 GM Global Technology Operations LLC Systems and methods for vehicle signal light detection
US10387736B2 (en) * 2017-09-20 2019-08-20 TuSimple System and method for detecting taillight signals of a vehicle
US10733465B2 (en) * 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
US10691962B2 (en) * 2017-09-22 2020-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
CN108509907B (zh) * 2018-03-30 2022-03-15 北京市商汤科技开发有限公司 车灯检测方法、实现智能驾驶的方法、装置、介质及设备
US10632913B2 (en) * 2018-04-13 2020-04-28 GM Global Technology Operations LLC Vehicle behavior using information from other vehicles lights
US11361557B2 (en) * 2019-01-18 2022-06-14 Toyota Research Institute, Inc. Attention-based recurrent convolutional network for vehicle taillight recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039435A1 (en) 2013-06-26 2017-02-09 Google Inc. Vision-Based Indicator Signal Detection Using Spatiotemporal Filtering

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021124560A1 (de) 2021-09-22 2023-03-23 Marelli Automotive Lighting Reutlingen (Germany) GmbH Steuereinrichtung für eine LED-Lichtquellenanordnung und Verfahren zur Programmierung einer Steuereinrichtung
CN117935173A (zh) * 2024-03-21 2024-04-26 安徽蔚来智驾科技有限公司 目标车辆的识别方法、场端服务器及可读存储介质

Also Published As

Publication number Publication date
US20200125095A1 (en) 2020-04-23
CN111079508A (zh) 2020-04-28
US11415985B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
DE102018218015A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs
EP2179381B1 (de) Verfahren und vorrichtung zur verkehrszeichenerkennung
EP2562044B1 (de) Verfahren zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
DE102009025545A1 (de) Verfahren und Vorrichtung zum Erkennen von Bremslichtsystemen
DE102011006564A1 (de) Verfahren zur Auswertung eines von einer Kamera eines Fahrzeugs aufgenommenen Bildes und Bildaufbereitungsvorrichtung
DE102014225804A1 (de) Unterstützung beim Führen eines Fahrzeugs
DE102019209560A1 (de) Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks
DE112018000768T5 (de) Verfahren zum Erkennen von falsch-positiven Ereignissen in Bezug auf eine Ampel
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102011005780B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Entfernung zwischen einem Fahrzeug und einem Objekt
DE102017216016A1 (de) Verfahren und Vorrichtung zum Erkennen eines Umfelds eines Fahrzeugs
DE102019209562B4 (de) Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerkes sowie Vorrichtung und Verfahren zum Validieren eines neuronalen Netzwerkes
DE102017006094A1 (de) Vorrichtung und Verfahren zur Überwachung eines Verschmutzungsgrads eines vorausfahrenden Fahrzeugs
DE102019121919A1 (de) Identifizierung von Verschmutzungen auf einer Fahrbahn
DE102016009507A1 (de) Erkennung von Lichtsignalen
DE102021107793A1 (de) Verfahren zum Betreiben einer Fahrerassistenzfunktion
DE102020215885A1 (de) Verfahren und system zur erkennung und mitigation von störungen
EP3772017A1 (de) Bahnsignalerkennung für autonome schienenfahrzeuge
DE102018208117A1 (de) Verfahren zum Auslösen eines Ampelklassifizierungsalgorithmus zur Klassifizierung einer Ampelanlage für ein Fahrzeug und Verfahren zum Klassifizieren einer Ampelanlage für ein Fahrzeug
DE102022201659B3 (de) Fahrzeugsystem und Verfahren zur Zuordnung von Ampeln zu Fahrspuren
DE102017004770A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems
DE102019209064B4 (de) Vorrichtung zum Reagieren auf abgeschattete Objekte in einer Umgebung eines Fahrzeugs
DE102018123367A1 (de) Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder
DE102018114628A1 (de) Auf tiefem Lernen basierende automatische oder halbautomatische Ausparkverfahren
DE102022200136A1 (de) Verfahren zur Erkennung aktivierter Leuchten an einem Fahrzeug