-
Stand der Technik
-
Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
-
Es ist möglich, zu erkennen, ob eine Heckleuchte eines vorausfahrenden Fahrzeugs blinkt. Dazu kann unter Verwendung eines Bildsignals der Heckleuchte des vorausfahrenden Fahrzeugs eine Frequenzuntersuchung eines Intensitätsverlaufs der Heckleuchte erfolgen und es kann eine Wahrscheinlichkeit ermittelt werden, mit der die Heckleuchte aktiv ist, also blinkt.
-
Die
US 2017039435 A1 beschreibt ein solches Verfahren zum Erkennen eines Blinkens eines vorausfahrenden Fahrzeugs.
-
Offenbarung der Erfindung
-
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren und eine Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs sowie ein Trainieren eines künstlichen anlernbaren Modells, insbesondere eines künstlichen neuronalen Netzes gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
-
Mit dem hier vorgestellten Ansatz ist es möglich, unter Verwendung eines Bildes einer Rückansicht eines vorausfahrenden Fahrzeugs den Zustand der Fahrzeugleuchten des Fahrzeugs oder auch unter Verwendung eines Bildes einer Vorderansicht eines entgegenkommenden Fahrzeugs den Zustand der Fahrzeugleuchten des Fahrzeugs zu erkennen. Neben einem Blinken kann auch ein Bremsen erkannt werden. Es kann beispielsweise eine Form und Kombination von Heckleuchten klassifiziert werden (Bremen, Warnblinklicht, Bremsen und Blinken, usw.). Die Heckleuchte sollte also zur Erkennung nur zumindest einmal leuchten. Ein Blinken (d. h. ein wiederholtes bzw. zyklisches Ein-/Ausschalten der Leuchte) ist nicht zwingend erforderlich. Dabei ist vorteilhafterweise keine separate Lokalisation oder ein separates Tracking einzelner Fahrzeugleuchten erforderlich. Der Zustand der Fahrzeugleuchten kann unabhängig von einem Design und einem verwendeten Leuchttyp erkannt werden, wodurch beispielsweise auch gepulste Leuchtdioden-Fahrzeugleuchten erkannt werden können. Zudem kann auch eine teilweise defekte Fahrzeugleuchte erkannt werden. Blinkende Fahrzeugleuchten können vorteilhafterweise unabhängig von einer Blinkfrequenz erkannt werden.
-
Es wird ein Verfahren zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs vorgestellt. Das Verfahren weist einen Schritt des Einlesens und einen Schritt des Auswertens auf. Im Schritt des Einlesens wird ein Bildsignal eingelesen, das ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs umfasst. Im Schritt des Auswertens wird das Bildsignal unter Verwendung eines künstlichen anlernbaren Modells, insbesondere eines künstlichen neuronalen Netzes ausgewertet. Dabei werden zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentiert.
-
Bei dem Fahrzeug kann es sich um ein Land- oder Nutzfahrzeug oder um ein anderes Verkehrs- oder Transportmittel handeln, das auch als selbstfahrendes Fahrzeug mit einem automatisierten Fahrbetrieb ausgeführt sein kann. Unter der Fahrzeugleuchte kann eine Fahrzeugbeleuchtung, beispielsweise eine Rückleuchte des Fahrzeugs, also ein Fahrtrichtungsanzeiger, eine Bremsleuchte, eine Rückfahrleuchte oder ein Scheinwerfer wie ein Frontscheinwerfer oder eine Nebelschlussleuchte des Fahrzeugs verstanden werden. Das Bildsignal kann über eine Schnittstelle zu einer Sensoreinrichtung des Fahrzeugs eingelesen werden. Das Bildsignal kann einen Hüllkörper, eine sogenannte Bounding Box, des Fahrzeugbereichs des detektierten Fahrzeugs umfassen. Der Fahrzeugbereich kann beispielsweise ein Fahrzeugheck oder eine Fahrzeugfront sein. Das künstliche anlernbare Modell kann als Modell verstanden werden, welches eine anlernbare Struktur aufweist, die zur Wiedererkennung von Mustern in einem eingelesenen (Bild-) Signal verwendet werden kann. Das künstliche anlernbare Modell kann vereinfacht auch als anlernbares Modell bezeichnet werden. Beispielweise kann das (künstliche) anlernbare Modell als ein künstliches neuronales Netz oder ein einschichtiges, mehrschichtiges oder rekurrentes Netz ausgeführt sein. Alternativ kann der Schritt des Auswertens auch unter Verwendung eines anderen sequentiellen maschinellen Lernverfahrens bzw. eines künstlich anlernbaren Modells erfolgen, wie beispielsweise eines Hidden-Markov-Models (HMM), eines Conditonal-Random-Fields (CRF) oder eines beliebigen rekurrenten neuronalen Netzes (RNN). Diese Lernverfahren bzw. Modelle können dann als dann auch als künstlich anlernbares Modell bzw. als Training eines künstlich anlernbaren Modells verstanden wird. Die zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen können als Zustand beispielsweise einen Betriebszustand der Fahrzeugleuchte wie an oder aus und zusätzlich oder alternativ einen Typ der Fahrzeugleuchte, also eine Identifikation der Leuchtenart, repräsentieren. Als der aktuelle Zustand der Fahrzeugleuchte kann dann beispielsweise „linker Blinker an“ oder „Schlusslicht an“ oder „Rückfahrleuchte aus“ ermittelt werden.
-
Gemäß einer Ausführungsform können im Schritt des Auswertens zumindest zwei weitere je einen Zustand einer weiteren Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen unterschieden werden. Als Auswerteergebnis kann in diesem Fall diejenige weitere Zustandsklasse ermittelt werden, die den aktuellen Zustand der weiteren Fahrzeugleuchte des Fahrzeugs repräsentiert. Dies ist von Vorteil, um mittels des Verfahrens den aktuellen Zustand mehrerer Fahrzeugleuchten zu ermitteln. Beispielsweise kann dadurch der aktuelle Zustand sämtlicher im Fahrzeugbereich sichtbarer Fahrzeugleuchten, beispielsweise sämtlicher Rückleuchten, ermittelt werden, wodurch zwischen verschiedenen Leuchtzuständen, die auch mehrere Fahrzeugleuchten umfassen können, unterscheiden werden kann. So ist es vorteilhafterweise möglich, mittels des Verfahrens ein Blinken von einem Bremsen oder einer Gefahrenbremsung zu unterscheiden.
-
Im Schritt des Einlesens kann das Bildsignal gemäß einer Ausführungsform eingelesen werden, das zumindest zwei Bildteilsignale aufweisen. Die zumindest zwei Bildteilsignale können je unterschiedliche Farbinformationen des Bildsignals enthalten. Der Schritt des Auswertens kann dann unter Verwendung der zumindest zwei Bildteilsignale ausgeführt werden. Als unterschiedliche Farbinformationen können beispielsweise unterschiedliche Bildbereiche enthalten sein, unterschiedliche Farbkanäle des gleichen Bildbereichs, oder Farbhistogramme des Bildbereichs mit einer Unterteilung des Bildbereichs.
-
Zudem können die zumindest zwei Bildteilsignale gemäß einer Ausführungsform im Schritt des Einlesens eingelesen werden, die je den Fahrzeugbereich in einem unterschiedlichen Spektralbereich repräsentieren. Dies ist vorteilhaft in Bezug auf eine deutliche Kontrastierung der Fahrzeugleuchten. Zusätzlich oder alternativ können die zumindest zwei Bildteilsignale im Schritt des Einlesens unterschiedliche Fahrzeugteilbereiche des detektierten Fahrzeugs repräsentieren. Als Fahrzeugteilbereiche können beispielsweise Farbhistogramme von Bildbereichen einer Fahrzeugsilhouette oder einer Bounding Box des Fahrzeugs verwendet werden. Dies ist vorteilhaft in Bezug auf ein Erkennen einer räumlichen Information des Bildsignals.
-
Der Schritt des Auswertens kann gemäß einer Ausführungsform unter Verwendung eines rückgekoppelten anlernbaren Modells insbesondere eines rückgekoppelten neuronalen Netzes, als das künstliche neuronale Netz ausgeführt werden. Dazu kann das rückgekoppelte anlernbare Modell beispielsweise ein langes Kurzzeitgedächtnis, ein sogenanntes „Long short-term memory“ (LSTM) aufweisen, oder eine „gating recurrent unit“ (GRU).
-
Auch kann im Schritt des Einlesens gemäß einer Ausführungsform ein Detektionssignal eingelesen werden. Das Detektionssignal kann ein erstmaliges Erkennen des Fahrzeugs repräsentieren. Im Schritt des Auswertens kann ansprechend auf das Detektionssignal ein Versetzen des rückgekoppelten anlernbaren Modells in einen vorbestimmten Zustand erfolgen. Das rückgekoppelte anlernbare Modell kann dazu in einen Basiszustand versetzt werden, beispielsweise in einen Ausgangszustand nach einem erfolgten Trainieren des künstlichen anlernbaren Modells. Dies verhindert vorteilhafterweise, dass Werte vorausgegangener Verfahren zum Ermitteln des Zustands der Fahrzeugleuchte des Fahrzeugs nachfolgende Verfahren beeinflussen.
-
Ferner kann gemäß einer Ausführungsform im Schritt des Einlesens das Bildsignal das Kamerabild mit einem Fahrzeugbereich eines weiteren detektierten Fahrzeugs umfassen. Im Schritt des Auswertens können dabei zumindest zwei je einen Zustand einer Fahrzeugleuchte des weiteren Fahrzeugs repräsentierende Zustandsklassen unterschieden werden. Als Auswerteergebnis kann dann diejenige Zustandsklasse ermittelt werden, die den aktuellen Zustand der Fahrzeugleuchte des weiteren Fahrzeugs repräsentiert. Dadurch ist es vorteilhafterweise möglich, den Zustand der Fahrzeugleuchten mehrerer Fahrzeuge zu ermitteln, um beispielsweise in einer Verkehrssituation mit mehreren Verkehrsteilnehmern zu einer Situationseinschätzung zu kommen. Dies kann insbesondere für eine Verwendung in einem Fahrzeug mit automatisiertem Fahrbetrieb vorteilhaft sein.
-
Wenn das weitere Fahrzeug detektiert ist, kann gemäß einer Ausführungsform zum Ermitteln des Zustands der Fahrzeugleuchte des weiteren Fahrzeugs der Schritt des Auswertens unter Verwendung eines weiteren künstlichen anlernbaren Modells, insbesondere eines weiteren künstlichen neuronalen Netzes ausgeführt werden. Beispielsweise kann für jedes im Bildsignal repräsentierte detektierte Fahrzeug je ein künstliches anlernbares Modell oder neuronales Netz initialisiert werden, um den Zustand der Fahrzeugleuchten der detektierten Fahrzeuge zu ermitteln.
-
Im Schritt des Auswertens kann gemäß einer Ausführungsform zudem das Auswerteergebnis unter Verwendung der Funktion argumentum maximi ermittelt werden. Dies ist vorteilhaft, um eine Konfidenz des ermittelten Zustands der Fahrzeugleuchte zu bestimmen.
-
Das Verfahren kann gemäß einer Ausführungsform auch einen Schritt des Ausgebens eines Auswertesignals umfassen. Das Auswertesignal kann das Auswerteergebnis repräsentieren. Zudem kann das Auswertesignal als visuelles und zusätzlich oder alternativ als auditives Signal ausgegeben werden. Das Auswertesignal kann beispielsweise über eine Schnittstelle zu einer Anzeigeeinrichtung des Fahrzeugs bereitgestellt werden. Zum Anzeigen des aktuellen Zustands der Fahrzeugleuchte des Fahrzeugs kann beispielsweise das Kamerabild mit dem detektierten Fahrzeug oder die Bounding Box des Fahrzeugs auf der Anzeigeeinrichtung des Fahrzeugs angezeigt werden, und der Zustand der Fahrzeugleuchte kann beispielsweise farbig und symbolisch angezeigt werden, beispielsweise durch einen farbigen Pfeil an einer Stelle einer aktiven Fahrzeugleuchte des angezeigten Fahrzeugs, um beispielsweise einen mittels des ermittelten Zustands der Fahrzeugleuchte erkannten Blinkvorgang oder Bremsvorgang zu visualisieren. Vorteilhafterweise kann einem Fahrer des Fahrzeugs das Auswerteergebnis somit deutlich und zeitsparend bereitgestellt werden.
-
Mit diesem Ansatz wird zudem ein Verfahren zum Anlernen eines künstlichen anlernbaren Modells, insbesondere eines künstlichen neuronalen Netzes, zum Auswerten eines Bildsignals vorgestellt. Das Verfahren umfasst einen Schritt des Einlesens und einen Schritt des Trainierens. Im Schritt des Einlesens werden ein Bildsignal und ein Zielsignal eingelesen. Das Bildsignal umfasst ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs. Das Zielsignal repräsentiert eine Zustandsklasse einer Fahrzeugleuchte des Fahrzeugs. Die Zustandsklasse entspricht dabei einem in dem Bildsignal abgebildeten Zustand der Fahrzeugleuchte. Im Schritt des Trainierens wird das künstliche anlernbare Modell, insbesondere das künstliche neuronale Netz derart trainiert, dass das künstliche anlernbare Modell ansprechend auf das Bildsignal die Zustandsklasse erkennt. Dabei kann das künstliche anlernbare Modell dazu trainiert werden, um zumindest zwischen zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierenden Zustandsklassen zu unterscheiden.
-
Die hier vorgestellten Verfahren können beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
-
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
-
Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
-
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
-
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
-
Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
- 1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte des Fahrzeugs gemäß einem Ausführungsbeispiel;
- 2 ein Ablaufdiagramm eines Verfahrens zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel;
- 3 ein Ablaufdiagramm eines Verfahrens zum Ermitteln eines Zustands von Fahrzeugleuchten von mehreren Fahrzeugen gemäß einem Ausführungsbeispiel;
- 4 und 5 je eine schematische Darstellung eines Verfahrens zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel;
- 6 bis 8 je eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel;
- 9 und 10 je eine schematische Darstellung eines künstlichen anlernbaren Modells gemäß einem Ausführungsbeispiel; und
- 11 ein Ablaufdiagramm eines Verfahrens zum Anlernen eines künstlichen anlernbaren Modells zum Auswerten eines Bildsignals gemäß einem Ausführungsbeispiel.
-
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
-
1 zeigt eine schematische Darstellung eines ersten Fahrzeugs 100 mit einer Vorrichtung 105 zum Ermitteln eines Zustands einer Fahrzeugleuchte 110 eines zweiten Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Die Vorrichtung 105 umfasst eine Einleseeinrichtung 120 und eine Auswerteeinrichtung 125. Die Einleseeinrichtung 120 ist ausgebildet, ein Bildsignal 130 einzulesen. Das Bildsignal 130 umfasst ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs, dem hier gezeigten zweiten Fahrzeug 115. Die Auswerteeinrichtung 125 ist dazu ausgebildet, unter Verwendung eines künstlichen anlernbaren Modells 135 das Bildsignal 130 auszuwerten. Im weiteren Verlauf der Beschreibung wird aus Gründen der einfacheren Erläuterung die Erfindung am Beispiel eines künstlichen neuronalen Netzes als dem künstlich anlernbaren Modell beschrieben, wobei der Fachmann auch nach den vorausgegangenen Ausführungen zweifelsfrei erkennen wird, dass auch ein anderes künstlich anlernbares Modell wie beispielsweise das Hidden-Markow-Modell oder dergleichen anstelle oder zusätzlich zu dem künstlichen neuronalen Netz verwendet werden kann. Der Einfachheit halber wird daher auch das künstliche neuronale Netz stellvertretend bzw. synonym für das künstlich anlernbare Modell unter dem Bezugszeichen 135 verstanden bzw. beschrieben, wobei die Struktur des jeweiligen Modells als künstliches neuronales Netz oder als andere Auslegungsform für das künstliche anlernbare Modell für die Beschreibung und das Verständdnis der hier vorgestellten Erfindung von untergeordneter Bedeutung ist.
-
Dabei werden zumindest zwei je einen Zustand der Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 repräsentiert.
-
Gemäß dem hier gezeigten Ausführungsbeispiel wird das Auswerteergebnis in Form eines Auswertesignals 140 bereitgestellt. Das Bildsignal 130 wird beispielshaft von einer Umfelderfassungseinrichtung 145 des Fahrzeugs 100 bereitgestellt. Die Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 ist beispielhaft als Rückleuchte ausgeführt. Mittels der hier gezeigten Vorrichtung 105 ist es vorteilhafterweise möglich, den Zustand verschiedener Leuchttypen zu ermitteln. Dadurch ist es möglich, beispielsweise nicht nur ein Blinken des vorausfahrenden Fahrzeugs 115 zu erkennen, sondern auch einen Bremsvorgang oder eine Gefahrenbremsung. Dies ist möglich, da die hier gezeigte Vorrichtung 105 ohne eine Intensitätsbetrachtung der Fahrzeugleuchte 110 mit anschließender Fourier Transformation und ohne Frequenzanalyse zum Erkennen eines handelsüblichen Blinkers auskommt. Dabei ist keine exakte Lokalisierung einer Position der Fahrzeugleuchte 110 und kein separates Tracking einzelner Fahrzeugleuchten 110 erforderlich. Unter Verwendung des Bildsignals 130 ist es möglich, unabhängig von einem Design und einem verwendeten Leuchtentyp wie beispielsweise gepulste Leuchtdioden-Rückleuchten, den Zustand der Fahrzeugleuchte 110 zu ermitteln. Zudem ist die Vorrichtung 105 auch ausgebildet, eine teilweise defekte Fahrzeugleuchte 110 oder einen schnell blinkenden Blinker als Fahrzeugleuchte 110 zu erkennen, um den aktuellen Zustand der Fahrzeugleuchte 110 des detektierten Fahrzeugs 115 zu ermitteln. Die Vorrichtung 105 ist bei Tag und bei Nacht einsetzbar. Zudem ist kein Zwischenspeichern von vorausgegangenen Kamerabildern oder Bildpatches des Bildsignals 130 erforderlich, beispielsweise um Differenzbilder berechnen zu können, was insbesondere bei einer Verwendung einer anwendungsspezifischen integrierten Schaltung für die Vorrichtung 105 kostensparend ist.
-
2 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel. Das Verfahren 200 weist zumindest einen Schritt 205 des Einlesens und einen Schritt 210 des Auswertens auf. Im Schritt 205 des Einlesens wird ein Bildsignal eingelesen, das ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs umfasst. Im Schritt 210 des Auswertens wird das Bildsignal unter Verwendung eines künstlichen neuronalen Netzes ausgewertet. Dabei werden zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentiert.
-
Gemäß einem Ausführungsbeispiel umfasst das Verfahren 200 zudem einen Schritt 215 des Ausgebens eines Auswertesignals. Das Auswertesignal repräsentiert das Auswerteergebnis des Schritts 210 des Auswertens. Das Auswertesignal wird als visuelles und zusätzlich oder alternativ als auditives Signal ausgegeben. Dies ist beispielhaft anhand der nachfolgenden 6 bis 8 gezeigt.
-
3 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Ermitteln eines Zustands von Fahrzeugleuchten von mehreren Fahrzeugen 115, 305, 310 gemäß einem Ausführungsbeispiel. Gezeigt ist ein Ablauf einer Fahrzeugleuchtenklassifikation für mehrere Fahrzeuge 115, 305, 310. Das Verfahren 200 wird zum Ermitteln des Zustands der Fahrzeugleuchten mehrerer Fahrzeuge 115, 305, 310 in Teilschritten durchgeführt. Gemäß einem Ausführungsbeispiel umfasst im Schritt 205 des Einlesens das Bildsignal ein Kamerabild 315 mit dem Fahrzeugbereich des detektierten Fahrzeugs 115 und mit einem Fahrzeugbereich eines weiteren detektierten Fahrzeugs 305. Hier umfasst das Kamerabild 315 beispielhaft einen Fahrzeugbereich eines dritten detektierten Fahrzeugs 310. Zum Auswerten des Bildsignals mit den drei detektierten Fahrzeugen 115, 305, 310 werden je detektiertem Fahrzeug 115, 305, 310 im Schritt 210 des Auswertens zumindest zwei je einen Zustand einer Fahrzeugleuchte des weiteren Fahrzeugs 305, 310 repräsentierende Zustandsklassen unterschieden. Als Auswerteergebnis wird diejenige Zustandsklasse ermittelt, die den aktuellen Zustand der Fahrzeugleuchte des weiteren Fahrzeugs 305, 310 repräsentiert.
-
Gemäß dem hier gezeigten Ausführungsbeispiel wird der Schritt 210 des Auswertens je weiterem detektiertem Fahrzeug 305, 310 unter Verwendung eines weiteren künstlichen neuronalen Netzes ausgeführt. Dazu wird der Schritt 210 je detektiertem Fahrzeug 115, 305, 310 in Teilschritten durchgeführt. Das Kamerabild 315 wird hier beispielhaft als Bounding Box der Fahrzeuge 115, 305, 310 bereitgestellt. Für jedes detektierte Fahrzeug 115, 305, 310, und damit für jede Bounding Box der Fahrzeuge 115, 305, 310 wird jeweils ein künstliches neuronales Netzes initialisiert. Bei den hier beispielhaft gezeigten drei Fahrzeugen 115, 305, 310 laufen also drei künstliche neuronale Netze parallel, wobei jeweils ein Fahrzeug von einem künstlichen neuronalen Netz betrachtet wird, um den Zustand der Fahrzeugleuchten zu ermitteln. Die Anzahl der maximal detektierten Fahrzeuge lässt sich dabei beliebig festsetzen, entsprechend einer Anzahl an künstlichen neuronalen Netzen.
-
Zudem wird hier anschließend an das Ermitteln des Zustands der Fahrzeugleuchten der Fahrzeuge 115, 305, 310 der optionale Schritt 215 des Ausgebens des Auswertesignals ausgeführt. In drei Teilschritten wird dabei jeweils das Auswerteergebnis der Teilschritte des Schritts 210 des Auswertens ausgegeben.
-
4 zeigt eine schematische Darstellung eines Verfahrens 200 zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Gezeigt ist das Ermitteln des Zustands der Fahrzeugleuchte des Fahrzeugs 115 auf Basis von Bildbereichen des Kamerabildes 315. Das Kamerabild 315 zeigt hier beispielhaft ein Fahrzeugheck des detektierten Fahrzeugs 115.
-
Der Schritt des Auswertens wird gemäß dem hier gezeigten Ausführungsbeispiel unter Verwendung eines rückgekoppelten neuronalen Netzes 405 als das künstliche neuronale Netz ausgeführt. Das künstliche neuronale Netz umfasst hier zumindest eine langes-Kurzzeitgedächtnis-Schicht, ein „long short-term memory-Layer“ (LSTM-Layer) als rückgekoppeltes neuronales Element.
-
Zudem wird im Schritt des Einlesens gemäß dem hier gezeigten Ausführungsbeispiel ein Detektionssignal 410 eingelesen. Das Detektionssignal 410 repräsentiert ein erstmaliges Erkennen des Fahrzeugs 115. Es wird also geprüft, ob das Fahrzeug 115 zum ersten Mal detektiert wird. Im Schritt des Auswertens erfolgt dann ansprechend auf das Detektionssignal 410 ein Versetzen des rückgekoppelten neuronalen Netzes 405 in einen vorbestimmten Zustand. Dazu wird das rückgekoppelte neuronale Netz 405 in einen Basiszustand zurückgesetzt. Das rückgekoppelte neuronale Netz 405 wird beispielsweise in einen Ausgangszustand nach einem erfolgten Trainieren des künstlichen neuronalen Netzes versetzt.
-
Gemäß dem hier gezeigten Ausführungsbeispiel weist das Bildsignal 130 im Schritt des Einlesens zumindest zwei Bildteilsignale 415 auf. Die zumindest zwei Bildteilsignale 415 enthalten je unterschiedliche Farbinformationen des Bildsignals 130. Der Schritt des Auswertens wird in diesem Fall unter Verwendung der zumindest zwei Bildteilsignale 415 ausgeführt.
-
Die zumindest zwei Bildteilsignale 415 repräsentieren je den Fahrzeugbereich des Fahrzeugs 115 in einem unterschiedlichen Spektralbereich. Hier weist das Bildsignal 130 beispielhaft drei Bildteilsignale 415 auf, die je einen unterschiedlichen Farbkanal des Fahrzeugbereichs repräsentieren. Zusätzlich oder alternativ repräsentieren die zumindest zwei Bildteilsignale 415 unterschiedliche Fahrzeugteilbereiche des detektierten Fahrzeugs 115, wie anhand der folgenden 5 gezeigt.
-
Im Schritt des Auswertens werden zumindest zwei je einen Zustand der Fahrzeugleuchte des Fahrzeugs 115 repräsentierende Zustandsklassen 420 unterschieden. Gemäß einem Ausführungsbeispiel werden zumindest zwei weitere je einen Zustand einer weiteren Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen 420 unterschieden. Als Auswerteergebnis werden in diesem Fall diejenigen Zustandsklassen 420 ermittelt, die jeweils den aktuellen Zustand der Fahrzeugleuchte und der weiteren Fahrzeugleuchte repräsentieren. Gemäß dem hier gezeigten Ausführungsbeispiel weist das detektierte Fahrzeug 115 beispielhaft sechs verschiedenen Fahrzeugleuchtentypen auf: einen linken Blinker, einen rechten Blinker, ein Bremslicht, eine Rückfahrleuchte, ein Schlusslicht und einen Nebelscheinwerfer. Im Schritt des Auswertens wird entsprechend zwischen sechs verschiedenen Fahrzeugleuchtentypen unterschieden. Zudem wird jeweils der Betriebszustand der Fahrzeugleuchte (Fahrzeugleuchte an oder aus) unterschieden. Somit wird zwischen zwölf je einen Zustand der Fahrzeugleuchte des Fahrzeugs repräsentierende Zustandsklassen 420 unterschieden: Linker Blinker an, Linker Blinker aus, rechter Blinker an, rechter Blinker aus, Bremslicht an, Bremslicht aus, Rückfahrleuchte an, Rückfahrleuchte aus, Schlusslicht an, Schlusslicht aus, Nebelscheinwerfer an, Nebelscheinwerfer aus. Das Auswerteergebnis kann beispielsweise die Zustandsklasse 420 sämtlicher Fahrzeugleuchten umfassen. Vorteilhafterweise ist somit mittels des hier gezeigten Verfahrens 200 und somit mittels eines einzigen Verfahrens 200 eine Klassifikation des Zustandes sämtlicher Rückleuchten des Fahrzeugs 115 möglich. Somit ist es mit Hilfe des Verfahrens 200 möglich, zwischen verschiedenen Rückleuchtenzuständen wie einem Blinken, einem Bremsen oder einer Gefahrenbremsung zu unterscheiden. Eine Ausgabe des Auswerteergebnisses umfasst entsprechend den Zustand aller Fahrzeugleuchten des Fahrzeugs 115 im erfassten Fahrzeugbereich des Fahrzeugs 115, beispielsweise den Zustand aller Rückleuchten.
-
Das Klassifikationsergebnis der Fahrzeugleuchten des rückgekoppelten neuronalen Netzes 405 wird gemäß einem Ausführungsbeispiel über ein argmax, also unter Verwendung der Funktion argumentum maximi, bestimmt, wodurch für jeden ermittelten Zustand der Zustandsklassen 420 eine Konfidenz ermittelt wird, die optional mit dem Auswerteergebnis ausgegeben wird.
-
5 zeigt eine schematische Darstellung eines Verfahrens 200 zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs gemäß einem Ausführungsbeispiel. Der hier gezeigte Ablauf des Verfahrens 200 ähnelt dem anhand von 4 beschriebenen Ausführungsbeispiel, mit dem Kamerabild 315 mit dem detektierten Fahrzeug 115, dem Detektionssignal 410, dem rückgekoppelten neuronalem Netz 405 und den zwölf Zustandsklassen der Fahrzeugleuchte des Fahrzeugs 115.
-
Gemäß dem hier gezeigten Ausführungsbeispiel repräsentieren die zumindest zwei mit dem Bildsignal 130 eingelesenen Bildteilsignale 415 hier jedoch unterschiedliche Fahrzeugteilbereiche 505 des detektierten Fahrzeugs 115. Dazu wird der mit dem Kamerabild 315 erfasste Fahrzeugbereich des Fahrzeugs 115 in mehrere Bildbereiche aufgeteilt. Hier ist der Fahrzeugbereich beispielhaft in drei Spalten aufgeteilt, Leuchtenpositionen (rechts, Mitte, links) des Fahrzeugs 115 entsprechend. Die den Bildteilsignalen 415 entsprechenden drei Fahrzeugteilbereiche werden hier durch je drei Farbhistogramme 510 in drei unterschiedlichen Farben repräsentiert. Als Input für das rückgekoppelte neuronale Netz 405 werden entsprechend neun Farbhistogramme 510 eingelesen. Basis der Farbhistogramme 510 sind die Bildbereiche, die Fahrzeugteilbereiche 505, einer Fahrzeugsilhouette oder Bounding Box des Fahrzeugs 115, die zwecks einer räumlichen Information des Fahrzeugbereichs in mehrere Bildteile, hier beispielhaft drei Fahrzeugteilbereiche 505, unterteilt wird.
-
6 zeigt eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte 605 eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Es ist eine Ansicht aus einem Innenraum des ersten Fahrzeugs aus einer Blickrichtung eines Fahrers des ersten Fahrzeugs auf das detektierte Fahrzeug 115 gezeigt. In dem Innenraum des ersten Fahrzeugs ist eine Anzeigeeinrichtung 610 angeordnet, auf der beispielhaft das Kamerabild 315 des Bildsignals und damit die Detektion eines Fahrzeughecks des Fahrzeugs 115 als Bounding Box angezeigt wird.
-
Gemäß dem hier gezeigten Ausführungsbeispiel wird das Auswerteergebnis des Verfahrens zum Ermitteln des Zustands der Fahrzeugleuchte 605 des Fahrzeugs 115 in Form eines Auswertesignals 615 ausgegeben. Das Auswertesignal 615 repräsentiert das Auswerteergebnis und wird hier als visuelles Signal auf der Anzeigeeinrichtung 610 ausgegeben. Zusätzlich oder alternativ kann das Auswertesignals 615 auch als auditives Signal ausgegeben werden. Das detektierte Fahrzeug 115 bremst in dem hier gezeigten Ausführungsbeispiel, es sind somit beispielhaft drei Fahrzeugleuchten 615 des Fahrzeugs 115 aktiv. Zusätzlich zu einem auch auf der Anzeigeeinrichtung 610 erkennbarem Aufleuchten der Fahrzeugleuchten 605 wird das Bremsen des Fahrzeugs 115 mittels des Auswertesignals 615 visuell signalisiert, hier beispielhaft durch einen nach unten zeigenden roten Pfeil an der Bounding Box des Fahrzeugshecks des auf der Anzeigeeinrichtung 610 angezeigten Fahrzeugs.
-
7 zeigt eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte 605 eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Das hier gezeigte Ausführungsbeispiel ähnelt dem anhand von 6 beschriebenen Ausführungsbeispiel, mit einem anderen Zustand der Fahrzeugleuchten 605 des detektierten Fahrzeugs 115, das hier nicht bremst, sondern links blinkt. Dies ist hier beispielhaft durch das Anzeigen des Auswertesignals 615 auf der Anzeigeeinrichtung 610 in Form des Kamerabildes 315 mit der Bounding Box des Fahrzeugbereichs des detektierten Fahrzeugs gezeigt. Zum Visualisieren des Blinkvorgangss ist hier beispielhaft ein in Blinkrichtung gerichteter orangener Pfeil an der Bounding Box des Fahrzeugshecks gezeigt.
-
8 zeigt eine schematische Darstellung eines Anzeigens eines Zustands einer Fahrzeugleuchte 605 eines Fahrzeugs 115 gemäß einem Ausführungsbeispiel. Das hier gezeigte Ausführungsbeispiel ähnelt den anhand der 6 und 7 beschriebenen Ausführungsbeispielen, wobei das detektierte Fahrzeug 115 hier rechts blinkt. Dies ist hier beispielhaft durch das Anzeigen des Auswertesignals 615 auf der Anzeigeeinrichtung 610 in Form des Kamerabildes 315 mit der Bounding Box des Fahrzeugbereichs des detektierten Fahrzeugs mit einem entsprechend der Blinkrichtung nach rechts zeigenden orangenen Pfeil zum Visualisieren des ermittelten Zustands der Fahrzeugleuchten 605 des detektierten Fahrzeugs 115.
-
9 zeigt eine schematische Darstellung eines künstlichen anlernbaren Modells 135 gemäß einem Ausführungsbeispiel. Es ist eine beispielhafte Architektur für eine Unterscheidung von vier Zustandsklassen gezeigt. Als Input für das künstliche anlernbare Modell 135 bzw. das neuronale Netz, werden hier Bildpatches als Bildsignal wie anhand der 4 beschrieben vorausgesetzt. Gezeigt ist ein Convolutional Neural Network, auch faltendes neuronales Netzwerk genannt. Das künstliche neuronale Netz als anlernbares Modell 135 weist hier ein Convolution Layer 905 auf, mit einem Filter 16, einer Kernel Size 6x6 und einem Stride 2. Das Convolution Layer 905 ist mit einer „batch normalization“ 910 verknüpft, dessen Output in einem weiteren Convolution Layer 915 verarbeitet wird, das mit einer weiteren „batch normalization“ 920 verknüpft ist, gefolgt von einem Max-Pooling-Layer 925, mit einer Größe (Pool-Size) von 2x2 und einem Stride 2. Das Max-Pooling-Layer 925 weist einen Dropout von 0,5 auf und ist mit einem rückgekoppelten Element 930, einem LSTM-Layer 10 verknüpft mit einem Dropout von 0,6 und einem Dropout von 0,25, gefolgt von zwei voll verbundenen Schichten 935 und 940, einem Dense-Layer 10 und einem Dense-Layer 4, wobei zwischen den Schichten 935 und 940 ein Dropout von 0,8 erfolgt.
-
10 zeigt eine schematische Darstellung eines künstlichen anlernbaren Modells 135 in der Form eines neuronalen Netzes gemäß einem Ausführungsbeispiel. Es ist eine beispielhafte Architektur für eine Unterscheidung von vier Zustandsklassen gezeigt. Als Input für das künstliche neuronale Netzes 135 werden hier Bildpatches als Bildsignal wie anhand der 4 beschrieben vorausgesetzt. Gezeigt ist ein künstliches neuronales Netz 135 auf Basis der Inceptionidee. Das künstliche neuronale Netz 135 weist hier ein erstes Convolution Layer 1005 auf, mit einem Filter 32, einer Kernel Size 3x3 und einem Stride 2, das mit einem zweiten Convolution Layer 1010 mit einem Filter 32, einer Kernel Size 2x2 und einem Stride 1 verknüpft ist. Der Output des zweiten Convolution Layers 1010 wird in einer nächsten Schicht mit dem dritten Convolution Layer 1015, dem vierten Convolution Layer 1020 und dem fünften Convolution Layer 1025 verarbeitet. Das dritte Convolution Layer 1015 weist einen Filter 64, eine Kernel Size 1x1 und einen Stride 2 auf, das vierte Convolution Layer 1020 weist einen Filter 64, eine Kernel Size 3x3 und einen Stride 2 auf, und das fünfte Convolution Layer 1025 weist einen Filter 64, eine Kernel Size 5x5 und einen Stride 2 auf. Danach folgt ein Max-Pooling-Layer 1030 mit einem Pool-Size 2x2 und einem Stride 2 und einem Dropout von 0,6. Das Max-Pooling-Layer 1030 ist verknüpft mit einer „Batch Normalization“ 1035. Es folgt eine Wiederholung einer vergleichbaren Struktur mit einer weiteren Schicht mit einem sechsten Convolution Layer 1040, einem siebten Convolution Layer 1045 und einem achten Convolution Layer 1050, verknüpft mit einem weiteren Max-Pooling-Layer 1055 mit einem Pool-Size 2x2 und einem Stride 2. Das sechste Convolution Layer 1040 weist einen Filter 128, eine Kernel Size 3x3 und einen Stride 2 auf, das siebte Convolution Layer 1045 weist einen Filter 128, eine Kernel Size 1x1 und einen Stride 2 auf, und das achte Convolution Layer 1050 weist einen Filter 128, eine Kernel Size 5x5 und einen Stride 2 auf. Das Max-Pooling-Layer 1050 ist mit einem einem rückgekoppelten Element 1060, einem LSTM-Layer 16 verknüpft mit einem Dropout von 0,6 und einem Dropout von 0,4, gefolgt von zwei voll verbundenen Schichten 1065 und 1070, einem Dense-Layer 10 und einem Dense-Layer 4, wobei zwischen den Schichten 1065 und 1070 ein Dropout von 0,7 erfolgt.
-
11 zeigt ein Ablaufdiagramm eines Verfahrens 1100 zum Anlernen eines künstlichen anlernbaren Modell zum Auswerten eines Bildsignals gemäß einem Ausführungsbeispiel. Das Verfahren 1100 umfasst einen Schritt 1105 des Einlesens und einen Schritt 1110 des Trainierens. Im Schritt 1105 des Einlesens werden ein Bildsignal und ein Zielsignal eingelesen. Das Bildsignal umfasst ein Kamerabild mit einem Fahrzeugbereich eines detektierten Fahrzeugs. Das Zielsignal repräsentiert eine Zustandsklasse einer Fahrzeugleuchte des Fahrzeugs. Die Zustandsklasse entspricht dabei einem in dem Bildsignal abgebildeten Zustand der Fahrzeugleuchte. Im Schritt 1110 des Trainierens wird das künstliche anlernbare Modell derart trainiert, dass das künstliche anlernbare Modell ansprechend auf das Bildsignal die Zustandsklasse erkennt.
-
Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-