-
Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zur Erkennung von Bremsspuren auf einer Fahrbahn eines Kraftfahrzeugs.
-
Wenn ein Kraftfahrzeug von einer Person gesteuert wird, dann beobachtet der Fahrer des Fahrzeugs sehr genau und intuitiv, ob irgendwelche mögliche Gefahrenquellen sich auf der Fahrbahn befinden. Insbesondere werden vorausfahrende Fahrzeuge genau beobachtet, um unterschiedliche Informationen zu gewinnen, wie beispielsweise die Geschwindigkeit des vorausfahrenden Fahrzeugs oder ob ein Überholmanöver geplant ist. Außerdem wird die Fahrbahn und die Straßenführung beobachtet, um das Fahrverhalten entsprechend anpassen zu können. So kann das vermehrte Auftreten von Bremsspuren auf einer Fahrbahn auf eine kritische Fahrsituation aufmerksam machen, da sie beispielsweise eine besondere topographische Struktur wie eine Bergkuppe oder eine scharfe Kurve anzeigen, auf die schon eine Vielzahl von Fahrzeugen mit einem Bremsmanöver regiert hat. Ein geübter menschlicher Fahrer übt diese Beobachtungen intuitiv während des Fahrens aus und ihm ist häufig gar bewusst, wie er die Informationen verarbeitet und einer möglichen Gefahrensituation zuordnet.
-
Bei teil-autonom und autonom fahrenden Fahrzeugen werden Kamerasysteme und Sensoren eingesetzt, um Informationen über die Umgebung des Fahrzeugs zu gewinnen. Die Entwicklung des hochautomatisierten Fahrens (HAF) geht daher einher mit einer Erhöhung der Anforderungen an Fahrzeugsensorsysteme zur Aufnahme von geeigneten Sensordaten wie insbesondere Bilddaten. Zudem müssen die aufgenommenen Sensordaten sorgfältig interpretiert werden, um daraus die richtigen Schlussfolgerungen hinsichtlich einer möglichen Gefahrensituation zu gewinnen.
-
Die
DE 102014203137 A1 beschreibt ein Steuergerät für Fahrzeuge zum Erkennen eines Unfalls anderer Verkehrsteilnehmer. Das Steuergerät ist eingerichtet zum Empfangen von Sensordaten von Sensoren zur Erfassung des Umfeldes des Fahrzeugs und zum Erkennen eines Unfalls eines oder mehrerer anderer Verkehrsteilnehmer mithilfe der Sensordaten. Im Fall des Erkennens eines Unfalls wird ein Hinweis ausgegeben.
-
Die
DE 102018127342 A1 beschreibt ein Verfahren zum Betrieb eines Assistenzsystems eines Fahrzeuges, wobei mittels einer Sensorik eine Umgebung des Fahrzeuges mit sich darin befindenden Objekten erfasst wird. Aus den Daten wird ermittelt, ob die vorausliegende Fahrbahn schneebedeckt ist und Reifenspuren aufweist. In Abhängigkeit von dem ermittelten Verlauf der Reifenspuren wird entschieden, ob eine Fahrt entlang dieser Reifenspuren kritisch ist.
-
Eine Aufgabe der vorliegenden Erfindung besteht daher darin, ein Verfahren, ein System und ein Computerprogrammprodukt zur Erkennung von Bremsspuren auf einer Fahrbahn eines Kraftfahrzeugs zu schaffen, das sich durch eine hohe Zuverlässigkeit und effiziente Verwendung von Rechenkapazitäten auszeichnet.
-
Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 9, und hinsichtlich eines Computerprogrammprodukt durch die Merkmale des Patentanspruchs 15 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.
-
Gemäß einem ersten Aspekt betrifft die Erfindung ein Verfahren zur Erkennung von Bremsspuren auf einer Fahrbahn eines Kraftfahrzeugs mittels einer Datenanalyseeinrichtung. Das Verfahren umfasst die folgenden Verfahrensschritte:
- - Aufnehmen von Bild- und Sensordaten mittels einer Kamera- und Sensoreinrichtung des Kraftfahrzeugs, wobei die Bild- und Sensordaten die vorausliegende Fahrbahn des Kraftfahrzeugs repräsentieren;
- - Weitergeben der Bild- und Sensordaten an die Datenanalyseeinrichtung, wobei die Datenanalyseeinrichtung ein Erkennungssystem zur Erkennung von Bremsspuren auf der Fahrbahn umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet;
- - Bearbeiten der Bild- und Sensordaten in der Datenanalyseeinrichtung mittels des Erkennungssystems, um mögliche Bremsspuren auf der Fahrbahn zu klassifizieren.;
- - Zuordnen der klassifizierten Bremsspuren zu zumindest einem Zustand Sj aus einer Menge von definierten Zuständen S1, S2, ..., Sn;
- - Erzeugen von Ausgabedaten aus dem ermittelten Zustand Sj zur weiteren Verwendung in einer automatisierten Fahrfunktion und/oder für eine Benutzerschnittstelle.
-
In einer Weiterbildung der Erfindung ist vorgesehen, dass die Bearbeitung der Bild- und Sensordaten und die Erzeugung von Ausgabedaten in Echtzeit erfolgt.
-
In einer Ausführungsform umfasst das Erkennungssystem ein Analysemodul und ein Klassifizierungsmodul.
-
Vorteilhafterweise verwendet das Erkennungssystem Deep Learning mit einem neuronalen Netzwerk.
-
Insbesondere ist das neuronale Netzwerk als gefaltetes neuronales Netzwerk (convolutional neural network) ausgebildet.
-
In einer Ausführungsform ist eine GPS-Verbindung vorgesehen, um den geographischen Standort zu ermitteln und diesen den aufgenommenen Bild- und Sensordaten zuzuordnen.
-
In einer Weiterentwicklung ist vorgesehen, dass das Klassifizierungsmodul Merkmale M1, M2, ..., Mn von Bremsspuren auf einer Fahrbahn enthält, die in einer Trainingsphase des Klassifizierungsmoduls ermittelt oder vorab definiert wurden.
-
Vorteilhafterweise werden die Bild- und Sensordaten mittels einer Mobilfunkverbindung an die Datenanalyseeinrichtung übertragen, wobei insbesondere 5G-Funkmodule verwendet werden.
-
In einer Ausführungsform ist vorgesehen, dass die Bild- und Sensoreinrichtung eine Action-Kamera umfasst.
-
Gemäß einem zweiten Aspekt betrifft die Erfindung ein System zur Erkennung von Bremsspuren auf einer Fahrbahn eines Kraftfahrzeugs. Das System umfasst eine Bild- und Sensoreinrichtung des Kraftfahrzeugs zur Aufnahme von Bild- und Sensordaten und eine Datenanalyseeinrichtung. Die Bild- und Sensordaten repräsentieren die vorausliegende Fahrbahn des Kraftfahrzeugs. Die Datenanalyseeinrichtung umfasst ein Erkennungssystem zur Erkennung von Bremsspuren auf der Fahrbahn. Das Erkennungssystem verwendet Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse. Die Datenanalyseeinrichtung ist ausgebildet, die Bild- und Sensordaten mittels des Erkennungssystems zu bearbeiten, mögliche Bremsspurens auf der Fahrbahn zu klassifizieren, den klassifizierten Bremsspuren zumindest einen Zustand Sj aus einer Menge von definierten Zuständen S1, S2, ..., Sn zuzuordnen und Ausgabedaten aus dem ermittelten Zustand Sj zur weiteren Verwendung in einer automatisierten Fahrfunktion und/oder für eine Benutzerschnittstelle zu erzeugen.
-
In einer Weiterbildung der Erfindung ist vorgesehen, dass die Bearbeitung der Bild- und Sensordaten und die Erzeugung von Ausgabedaten in Echtzeit erfolgt.
-
In einer Ausführungsform umfasst das Erkennungssystem ein Analysemodul und ein Klassifizierungsmodul.
-
Vorteilhafterweise verwendet das Erkennungssystem Deep Learning mit einem neuronalen Netzwerk, welches insbesondere als gefaltetes neuronales Netzwerk (convolutional neural network) ausgebildet ist.
-
Insbesondere enthält das Klassifizierungsmodul Merkmale M1, M2, ..., Mn von Bremsspuren auf einer Fahrbahn, die in einer Trainingsphase des Klassifizierungsmoduls ermittelt oder vorab definiert wurden.
-
In einer Weiterentwicklung werden die Bild- und Sensordaten mittels einer Mobilfunkverbindung an die Datenanalyseeinrichtung übertragen, wobei insbesondere 5G-Funkmodule verwendet werden.
-
Insbesondere umfasst die Bild- und Sensoreinrichtung eine Action-Kamera.
-
Gemäß einem dritten Aspekt betrifft die Erfindung ein Computerprogrammprodukt, umfassend einen ausführbaren Programmcode, der so konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.
-
Nachfolgend wird die Erfindung anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert.
-
Dabei zeigt:
- 1 eine schematische Darstellung eines erfindungsgemäßen Systems zur Erkennung von Bremsspuren auf einer Fahrbahn eines Kraftfahrzeugs;
- 2 ein Ausführungsbeispiel eines Erkennungssystems gemäß der Erfindung;
- 3 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte eines erfindungsgemäßen Verfahrens;
- 4 ein Computerprogrammprodukt gemäß einer Ausführungsform der des dritten Aspekts der Erfindung.
-
Zusätzliche Merkmale, Aspekte und Vorteile der Erfindung oder ihrer Ausführungsbeispiele werden durch die ausführliche Beschreibung in Verbindung mit den Ansprüchen ersichtlich.
-
In 1 ist das erfindungsgemäße System 100 zur Erkennung von Bremsspuren 22 auf einer vorausliegenden Fahrbahn 20 eines Kraftfahrzeugs 10 dargestellt. Eine Kamera- und Sensoreinrichtung 30 des Kraftfahrzeugs 10 nimmt die Umgebung des Kraftfahrzeugs 10 und insbesondere die vorausliegende Fahrbahn auf. Die Kamera- und Sensoreinrichtung 30 gibt die aufgenommenen Bilddaten und Messwerte an eine Datenanalyseeinrichtung 40 zur weiteren Verarbeitung weiter.
-
Auf der Fahrbahn 20 können sich Bremsspuren 22 befinden, die auf einen stattgefundenen Unfall aufgrund einer schwierige Fahrbahn-Topographie hinweisen können. Bei der topographischen Struktur kann es sich beispielsweise um die Kuppe eines Hügels handeln, so dass die hinter der Kuppe abfallende Straßenführung für den Fahrer nicht einsehbar ist und er somit auch den Gegenverkehr nicht wahrnehmen kann. Oder es handelt sich um eine scharfe Kurve, die nur mit einer reduzierten Geschwindigkeit befahren werden sollte. Die Bremsspuren 22 sind somit Indikatoren für eine schwierige Verkehrssituation beispielsweise aufgrund der Topographie des Geländes oder einer spezifischen Fahrbahnführung.
-
Die Kamera- und Sensoreinrichtung 30 erfasst Bild- und Sensordaten 32 in einem Aufnahmebereich, der die vorausliegende Fahrbahn 20 möglichst umfassend überdeckt. Die Kamera- und Sensoreinrichtung 30 umfasst insbesondere eine RGB-Kamera 35 im sichtbaren Bereich mit den Grundfarben Blau, Grün und Rot. Es kann aber auch noch zusätzlich eine UV-Kamera 37 im ultravioletten Bereich und/oder eine IR-Kamera 39 im infraroten Bereich vorgesehen sein. Die sich durch ihr Aufnahmespektrum unterscheidenden Kameras 35, 37, 39 können somit unterschiedliche Lichtverhältnisse in dem Aufnahmebereich abbilden.
-
Die Aufnahmefrequenz der Kamera- und Sensoreinrichtung 30 ist für schnelle Geschwindigkeiten des Kraftfahrzeugs 10 ausgelegt und kann Bilddaten 32 mit einer hohen Bildaufnahmefrequenz aufzunehmen. Des Weiteren kann die Kamera- und Sensoreinrichtung 30 für die Erfassung von akustischen Signalen mit einem Mikrofon ausgestattet sein. Hierdurch können Abrollgeräusche der Reifen oder Motorgeräusche aufgenommen werden.
-
Zudem kann vorgesehen sein, dass die Kamera- und Sensoreinrichtung 30 automatisch den Bildaufnahmeprozess dann startet, wenn sich eine flächenmäßig signifikante Änderung im Aufnahmebereich der Kamera- und Sensoreinrichtung 30 ergibt, beispielsweise, wenn deutliche Änderungen des Straßenbelags der Fahrbahn erkennbar sind. Hierdurch wird ein selektiver Datenerfassungsprozess ermöglicht und nur relevante Bild- und Sensordaten 32 werden von der Datenanalyseeinrichtung 40 verarbeitet. Hierdurch können Rechenkapazitäten effizienter genutzt werden.
-
Insbesondere ist vorgesehen, als Kamera eine wetterfeste Action-Kamera zu verwenden, die insbesondere im Außenbereich des Fahrzeugs 10 angeordnet sein kann. Action-Kameras verfügen über weitwinkelige Fischaugen-Objektive, wodurch es möglich ist, einen sichtbaren Radius von ca. 180° zu erreichen. Hierdurch kann die vorausliegende Fahrbahn 20 umfassend abgebildet werden. Action-Kameras können üblicherweise Videos in Full HD (1.920 x 1.080 Pixel) aufzeichnen, jedoch können auch Action-Kameras in Ultra HD bzw. 4K (mindestens 3.840 x 2.160 Pixel) eingesetzt werden, wodurch sich eine deutliche Qualitätssteigerung in der Bildqualität ergibt. Die Bildaufnahmefrequenz beträgt üblicherweise 60 Bilder pro Sekunde in 4K und bis zu 240 pro Sekunde in Full HD. Außerdem kann noch ein integrierter Bildstabilisator vorgesehen sein. Zudem sind Action-Kameras häufig mit einem integrierten Mikrofon ausgestattet. Um Hintergrundgeräusche gezielt auszublenden, können darüber hinaus Verfahren der differentiellen Signalverarbeitung verwendet werden.
-
Die von der Kamera- und Sensoreinrichtung 30 aufgenommenen Bild- und Sensordaten 32 werden vorzugsweise über eine drahtlose Mobilfunkverbindung an die Datenanalyseeinrichtung 40 weitergegeben.
-
Des Weiteren ist vorteilhafterweise eine GPS-Verbindung vorgesehen, um den geographischen Standort zu ermitteln und diesen den aufgenommenen Bild- und Sensordaten 32 zuzuordnen. Aufgrund des ermittelten geographischen Standorts können zudem aus der Datenbank 60 weitere Daten über die topographische Struktur der Fahrbahn 20 von der Datenanalyseeinrichtung 40 abgerufen werden.
-
Die Datenanalyseeinrichtung 40 weist vorzugsweise einen Prozessor 41 auf, der die Bild- und Sensordaten 32 mittels eines Erkennungssystems 400 bearbeitet. Der Prozessor 41 oder ein weiterer Prozessor ist auch für die Steuerung der Kamera- und Sensoreinrichtung 30 ausgebildet. Es ist aber auch denkbar, dass die Bild- und Sensordaten 32 zunächst in einer Speichereinheit 50 oder einem Softwaremodul 55 gespeichert und erst zu einem späteren Zeitpunkt von der Datenanalyseeinrichtung 40 verarbeitet werden. Die Datenanalyseeinrichtung 40 und der Prozessor 41 können im Fahrzeug 10 integriert sein oder als cloudbasierte Lösung ausgebildet sein, die über eine Mobilfunkverbindung mit dem Fahrzeug 10 verbunden ist.
-
Zudem kann die Datenanalyseeinrichtung 40 auf ein oder mehrere weitere Datenbanken 60 zugreifen. In der Datenbank 60 können beispielsweise Klassifizierungsparameter zur Analyse der aufgenommenen Bild- und Sensordaten 32 oder weitere Bilder und/oder Kenngrößen gespeichert sein. Des Weiteren können Zielgrößen und Zielwerte in der Datenbank 60 abgelegt sein, die einen Sicherheitsstandard definieren. Auch können kartographische und topographische Daten gespeichert sein. Des Weiteren kann eine Benutzerschnittstelle 70 zur Eingabe von weiteren Daten und zur Anzeige der von der Datenanalyseeinrichtung 40 erstellten Berechnungsergebnisse vorgesehen sein. Insbesondere ist die Benutzerschnittstelle 70 als Display mit einem Touchscreen ausgebildet.
-
Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung oder ein leistungsfähiger Computer verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU), einen Mikroprozessor oder einen Mikrocontroller, beispielsweise eine anwendungsspezifische integrierte Schaltung oder einen digitalen Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. Auch kann unter einem Prozessor ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, der Komponente, der Module, oder anderer Aspekte und/oder Teilaspekte der Erfindung realisiert. Außerdem können hochparallele Recheneinheiten und leistungsfähige Grafikmodule vorgesehen sein.
-
Unter einer „Speichereinheit“ oder „Speichermodul“ und dergleichen kann im Zusammenhang mit der Erfindung beispielsweise ein flüchtiger Speicher in Form von Arbeitsspeicher (engl. Random-Access Memory, RAM) oder ein dauerhafter Speicher wie eine Festplatte oder ein Datenträger oder z. B. ein wechselbares Speichermodul verstanden werden. Es kann sich bei dem Speichermodul aber auch um eine cloudbasierte Speicherlösung handeln.
-
Unter einem „Modul“ kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Beispielsweise ist der Prozessor speziell dazu eingerichtet, die Programmbefehle derart auszuführen, damit der Prozessor Funktionen ausführt, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren oder realisieren.
-
Unter aufgenommenen Bild- und Sensordaten32 sind im Zusammenhang mit der Erfindung sowohl die Rohdaten als auch bereits aufbereitete Daten aus den Aufnahmeergebnissen der Bild- und Sensoreinrichtung 30 zu verstehen.
-
Insbesondere kann die Bild- und Sensoreinrichtung 30 über Mobilfunkmodule des 5G-Standards verfügen. 5G ist der Mobilfunkstandard der fünften Generation und zeichnet sich im Vergleich zum 4G-Mobilfunkstandard durch höhere Datenraten bis zu 10 Gbit/sec, der Nutzung höherer Frequenzbereiche wie beispielsweise 2100, 2600 oder 3600 Megahertz, eine erhöhte Frequenzkapazität und damit einen erhöhten Datendurchsatz und eine Echtzeitdatenübertragung aus, da bis zu eine Million Geräte pro Quadratkilometer gleichzeitig ansprechbar sind. Die Latenzzeiten betragen wenige Millisekunden bis unter 1 ms, so dass Echtzeitübertragungen von Daten und von Berechnungsergebnissen möglich sind. Die von der Bild- und Sensoreinrichtung 30 ermittelten Bild- und Sensordaten 32 werden in Echtzeit an eine Cloud-Plattform gesendet, wo die entsprechende Analyse und Berechnung durchgeführt wird. Die Analyse- und Berechnungsergebnisse werden an das Fahrzeug 10 in Echtzeit zurückgesandt und können daher schnell in Handlungsanweisungen an den Fahrer oder in automatisierte Fahrfunktionen integriert werden. Diese Geschwindigkeit bei der Datenübermittlung ist erforderlich, wenn cloudbasierte Lösungen für die Verarbeitung der Bild- und Sensordaten 32 verwendet werden sollen. Cloudbasierte Lösungen bieten den Vorteil von hohen und damit schnellen Rechenleistungen.
-
Wenn die Datenanalyseeinrichtung 40 in dem Fahrzeug integriert ist, wird für den Prozessor 41 vorteilhaftweise eine KI-Hardwarebeschleunigung wie das Coral Dev Board verwendet, um eine Bearbeitung in Echtzeit zu ermöglichen. Es handelt sich hierbei um einen Mikrocomputer mit einer Tensorverarbeitungseinheit (engl.: tensor processing unit (TPU)), wodurch eine vortrainierte Softwareapplikation bis zu 70 Bilder pro Sekunde auswerten werden.
-
2 zeigt das erfindungsgemäße Erkennungssystem 400, das als eine Softwareapplikation zur Analyse und Bearbeitung der erfassten und/oder gespeicherten Bild- und Sensordaten 32 ausgebildet ist, um sich auf der vorausliegenden Fahrbahn 20 befindliche Bremsspuren 22 zu erkennen. Insbesondere bearbeitet das Erkennungssystem 400 die erfassten Bild- und Sensordaten 32 mittels Algorithmen der künstlichen Intelligenz und der maschinellen Bildanalyse, um sie zu selektieren und zu klassifizieren. Vorteilhaftweise verwendet das Erkennungssystem 400 Algorithmen aus dem Bereich des Maschinenlernens, vorzugsweise Deep Learning mit beispielsweise gefalteten neuronalen Netzwerken (engl.: convolutional neural networks) zur Analyse der erfassten Bild- und Sensordaten 32.
-
Ein neuronales Netzwerk besteht aus Neuronen, die in mehreren Schichten angeordnet und unterschiedlich miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außerhalb oder von einem anderen Neuron entgegenzunehmen, die Information in einer bestimmten Art zu bewerten und sie in veränderter Form am Neuronen-Ausgang an ein weiteres Neuron weiterzuleiten oder als Endergebnis auszugeben. Hidden-Neuronen sind zwischen den Input-Neuronen und Output-Neuronen angeordnet. Je nach Netzwerktyp können mehrere Schichten von Hidden-Neuronen vorhanden sein. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben dieses an die Außenwelt aus. Durch die Anordnung und die Verknüpfung der Neuronen entstehen verschiedene Typen von neuronalen Netzwerken wie Feedforward-Netzwerke, Rekurrente Netzwerke oder Convolutional Neural Networks. Die Netzwerke lassen sich durch unbeaufsichtigtes oder überwachtes Lernen trainieren
-
Insbesondere weist das Erkennungssystem 400 ein Analysemodul 410 auf, das als ein gefaltetes neuronales Netzwerk (engl.: convolutional neural network, CNN) ausgebildet. Als Eingabedaten das Analysemoduls 410 werden die Bild- und Sensordaten 32 der Kamera- und Sensoreinrichtung 30 verwendet. Zusätzlich können noch Daten aus der Datenbank 60 verwendet werden. Die Datenformate der Eingabedaten sind vorzugsweise als Tensoren ausgebildet. Zudem können vorteilhafterweise unterschiedliche Bildformate verwendet werden.
-
Das Convolutional Neural Network ist eine besondere Form eines künstlichen neuronalen Netzwerks. Es besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich der Bild- und Spracherkennung sehr gut geeignet. Die Funktionsweise eines Convolutional Neural Networks ist zu einem gewissen Teil biologischen Vorgängen nachempfunden und der Aufbau ist vergleichbar der Sehrinde des Gehirns. Das Training eines Convolutional Neural Networks findet gewöhnlich überwacht statt. Herkömmliche neuronale Netzwerke bestehen aus voll- oder teilvermaschten Neuronen in mehreren Ebenen. Diese Strukturen stoßen jedoch bei der Verarbeitung von Bildern an ihre Grenzen, da eine der Pixelanzahl entsprechende Zahl an Eingängen vorhanden sein müsste. Das Convolutional Neural Network setzt sich aus verschiedenen Schichten zusammen und ist vom Grundprinzip ein zum Teil lokal vermaschtes neuronales Feedforward-Netzwerk. Die einzelnen Schichten des CNN sind die Convolutional-Schicht, die Pooling-Schicht und die vollständig vermaschte Schicht. Die Pooling-Schicht folgt der Convolutional-Schicht und kann in dieser Kombination mehrfach hintereinander vorhanden sein. Da die Pooling-Schicht und die Convolutional-Schicht lokal vermaschte Teilnetze sind, bleibt die Anzahl an Verbindungen in diesen Schichten selbst bei großen Eingabemengen begrenzt und in einem beherrschbaren Rahmen. Den Abschluss bildet eine vollständig vermaschte Schicht. Die Convolutional-Schicht ist die eigentliche Faltungsebene und in der Lage, in den Eingabedaten einzelne Merkmale zu erkennen und zu extrahieren. Bei der Bildverarbeitung können dies Merkmale wie Linien, Kanten oder bestimmte Formen sein. Die Verarbeitung der Eingabedaten erfolgt in Form von Tensoren wie einer Matrix oder Vektoren. Die Pooling-Schicht, auch Subsampling-Schicht genannt, verdichtet und reduziert die Auflösung der erkannten Merkmale durch passende Filterfunktionen. Insbesondere wird hierfür eine Maxpool-Funktion angewendet, die für einen (üblicherweise) nicht überlappenden Teilbereich der Daten den maximalen Wert jeweils berechnet. Neben dem Maximal-Pooling kann aber auch ein Mittelwert-Pooling verwendet werden. Das Pooling verwirft überflüssige Informationen und reduziert die Datenmenge. Die Leistungsfähigkeit beim maschinellen Lernen wird dadurch nicht verringert. Durch das reduzierte Datenaufkommen erhöht sich die Berechnungsgeschwindigkeit.
-
Den Abschluss des Convolutional Neural Networks bildet die vollständig verknüpfte Schicht. Sie ist das Ergebnis der wiederholten Abfolge der Convolutional- und Pooling-Schichten. Alle Merkmale und Elemente der vorgelagerten Schichten sind mit jedem Ausgabemerkmal verknüpft. Die vollständig verbundenen Neuronen können in mehreren Ebenen angeordnet sein. Die Anzahl der Neuronen ist abhängig von den Eingabedaten, die das Convolutional Neural Network bearbeiten soll.
-
Das Convolutional Neural Network (CNN) bietet daher gegenüber herkömmlichen nicht gefalteten neuronalen Netzen zahlreiche Vorteile. Es eignet sich für maschinelles Lernen und Anwendungen der Künstlichen Intelligenz mit großen Mengen an Eingabedaten wie in der Bilderkennung. Das Netzwerk arbeitet zuverlässig und ist gegenüber Verzerrungen oder anderen optischen Veränderungen unempfindlich. Das CNN kann unter verschiedenen Lichtverhältnissen und in unterschiedlichen Perspektiven aufgenommene Bilder verarbeiten. Es erkennt dennoch die typischen Merkmale eines Bildes. Da das CNN in mehrere lokale, teilvermaschte Schichten aufgeteilt ist, hat es einen wesentlich geringeren Speicherplatzbedarf als vollvermaschte neuronale Netze. Die Faltungsschichten reduzieren die Speicheranforderungen drastisch. Ebenfalls stark verkürzt ist die Trainingszeit des Convolutional Neural Networks. Mit dem Einsatz moderner Grafikprozessoren lassen sich CNNs sehr effizient trainieren. Das CNN erkennt und extrahiert Merkmale der Eingangsbilder mithilfe von Filtern. Zunächst erkennt das CNN in den ersten Ebenen einfache Strukturen wie Linien, Farbmerkmale oder Kanten. In den weiteren Ebenen lernt das Convolutional Neural Network Kombinationen aus diesen Strukturen wie einfache Formen oder Kurven. Mit jeder Ebene lassen sich komplexere Strukturen identifizieren. Die Daten werden in den Ebenen immer wieder neu abgetastet und gefiltert.
-
In dem Analysemodul 410 werden die Bild- und Sensordaten 32 somit vorzugsweise mittels eines Convolutional Neural Network bearbeitet. Zudem ist ein Klassifizierungsmodul 430 vorgesehen, das Merkmale M1, M2, ..., Mn von Bremsspuren 22 enthält. Diese Merkmale, wie die Intensität und die Länge einer Bremsspur 22 sowie die Anzahl an Bremsspuren 22 in einem bestimmten Abschnitt der Fahrbahn 20, können auf eine besonders gefährliche Straßenführung und Topographie hinweisen. Daher können diesen Merkmalen M1, M2, ..., Mn bestimmte Zustände S1, S2, ..., Sn der Verkehrssituation und der Topographie des Geländes zugeordnet werden. Ein Zustand S1 kann beispielsweise eine Kuppe auf einem Hügel darstellen. Den Zuständen S1, S2, ..., Sn können wiederum Sicherheitsstufen von niedrig bis hoch zugeordnet werden. Diese Merkmale M1, M2, ..., Mn und/oder Zustände S1, S2, ..., Sn des Fahrzeugs wurden vorzugsweise in einer Trainingsphase von dem CNN ermittelt oder sie wurden vorab definiert und dem Klassifizierungsmodul übermittelt.
-
Die derart bearbeiteten Bild- und Sensordaten 32 werden als Ausgabedaten 450 in eine automatisierte Fahrfunktion integriert und/oder an die Benutzerschnittstelle 70 übermittelt. Sie können dort als Handlungsempfehlungen oder Warnhinweise an den Fahrer der Fahrzeugs 10 ausgegeben werden. So kann beispielsweise ein Warnton oder ein optischer Hinweis über die Benutzerschnittstelle 70 ausgegeben werden, um den Fahrer auf eine besondere Verkehrssituation aufmerksam zu machen, die eine erhöhte Aufmerksamkeit beansprucht. Bei einer automatisieren Fahrfunktion kann auch automatisch das Fahrtempo reduziert werden oder eine automatische Bremsung durchgeführt werden. Außerdem können die Sitzgurte automatisch angespannt werden.
-
Ein Verfahren zur Erkennung von Bremsspuren 22 auf einer Fahrbahn 20 eines Kraftfahrzeugs 10 gemäß der vorliegenden Erfindung umfasst daher die folgenden Schritte:
- In einem Schritt S10 werden Bild- und Sensordaten 32 von einer Kamera- und Sensoreinrichtung 30 des Kraftfahrzeugs 10 aufgenommen, wobei die Bild- und Sensordaten 32 die vorausliegende Fahrbahn 20 des Kraftfahrzeugs 10 repräsentieren.
-
In einem Schritt S20 werden die Bild- und Sensordaten 32 an eine Datenanalyseeinrichtung 40 weitergegeben, wobei die Datenanalyseeinrichtung 40 ein Erkennungssystem 400 zur Erkennung von Bremsspuren 22 auf der Fahrbahn 20 umfasst, welches Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und der maschinellen Bildanalyse verwendet.
-
In einem Schritt S30 werden die Bild- und Sensordaten 32 in der Datenanalyseeinrichtung 40 mittels des Erkennungssystems 400 bearbeitet, um mögliche Bremsspuren 22 auf der Fahrbahn 20 zu klassifizieren.
-
In einem Schritt S40 wird den klassifizierten Bremsspuren 22 zumindest ein Zustand Sj aus einer Menge von definierten Zuständen S1, S2, ..., Sn zugeordnet.
-
In einem Schritt S50 werden aus dem ermittelten Zustand Sj Ausgabedaten 450 zur weiteren Verwendung in einer automatisierten Fahrfunktion und/oder für eine Benutzerschnittstelle 70 erzeugt.
-
Durch ein Erkennungssystem 400, das Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) und maschinellen Bildanalyse verwendet, können somit Bilder von der vorausliegenden Fahrbahn 20 des Fahrzeugs 10 hinsichtlich des Vorliegens von Bremsspuren 22 in Echtzeit analysiert werden. Mit der vorliegenden Erfindung ist die automatische Erfassung von Bremsspuren 22 ermöglicht, die als Indikatoren für eine schwierige Verkehrssituation und/oder topographische Struktur des Geländes dienen können. Das Ergebnis der Analyse wird beispielsweise als Warnsignal auf einer Benutzerschnittstelle 70 des Fahrzeugs 10 ausgegeben, falls die analysierten Bremsspuren 22 auf mögliche Gefahren beim Befahren der Fahrbahn 20 hinweisen. Durch die vorliegende Erfindung kann somit die Sicherheit beim Fahren weiter erhöht werden.
-
Bezugszeichenliste
-
- 10
- Kraftfahrzeug
- 20
- Fahrbahn
- 22
- Bremsspuren
- 30
- Kamera- und Sensoreinrichtung
- 32
- Bild- und Sensordaten
- 35
- RGB-Kamera
- 37
- UV-Kamera
- 39
- IR-Kamera
- 40
- Datenanalyseeinrichtung
- 41
- Prozessor
- 50
- Speichereinheit
- 55
- Softwaremodul
- 60
- Datenbank
- 70
- Benutzerschnittstelle
- 100
- System
- 400
- Erkennungssystem
- 410
- Analysemodul
- 430
- Klassifizierungsmodul
- 450
- Ausgabedaten
- 500
- Computerprogrammprodukt
- 550
- Programmcode
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102014203137 A1 [0004]
- DE 102018127342 A1 [0005]