DE102019214217A1 - Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, Steuergerät für automatisierte Fahrfunktionen, Überwachungssystem für ein Fahrzeug und Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters - Google Patents

Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, Steuergerät für automatisierte Fahrfunktionen, Überwachungssystem für ein Fahrzeug und Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters Download PDF

Info

Publication number
DE102019214217A1
DE102019214217A1 DE102019214217.6A DE102019214217A DE102019214217A1 DE 102019214217 A1 DE102019214217 A1 DE 102019214217A1 DE 102019214217 A DE102019214217 A DE 102019214217A DE 102019214217 A1 DE102019214217 A1 DE 102019214217A1
Authority
DE
Germany
Prior art keywords
weather
vehicle
time
flight camera
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019214217.6A
Other languages
English (en)
Other versions
DE102019214217B4 (de
Inventor
Jörg Angermayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019214217.6A priority Critical patent/DE102019214217B4/de
Publication of DE102019214217A1 publication Critical patent/DE102019214217A1/de
Application granted granted Critical
Publication of DE102019214217B4 publication Critical patent/DE102019214217B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/95Lidar systems specially adapted for specific applications for meteorological use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Ecology (AREA)
  • Atmospheric Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters umfassend die folgenden Verfahrensschritte: Aufnehmen von Umgebungen eines Fahrzeuges während Fahrten des Fahrzeuges mit einer an dem Fahrzeug angebrachten Lichtlaufzeit-Kamera (10), Messen der Helligkeiten dieser Aufnahmen mit der Lichtlaufzeit-Kamera (10) und Bereitstellen dieser Messungen als Ist-Trainingsdaten, in Abhängigkeit von mit diesen Aufnahmen jeweils erfassten Wettern Kennzeichnen der Aufnahme mit dem jeweiligen Wetter und Bereitstellen dieser Kennzeichen als Soll-Wetter, Eingeben der Ist-Trainingsdaten in einen Klassifikator (ANN) und Erhalten von Ist-Wettern, wobei der Klassifikator (ANN) ausgeführt ist, Wetter in Abhängigkeit von Helligkeitswerten zu klassifizieren, Eingeben von Paaren aus Ist-Wettern und den Soll-Wettern in den Klassifikator (ANN), um aus Helligkeitsmessungen der Lichtlaufzeit-Kamera (10) das Wetter zu erhalten. Ferner bezieht sich die Erfindung auf ein Steuergerät (20) für automatisierte Fahrfunktionen, ein Überwachungssystem (30) eines Fahrzeuges und ein Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters.

Description

  • Die Erfindung bezieht sich auf ein computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, ein Steuergerät für automatisierte Fahrfunktionen, ein Überwachungssystem für ein Fahrzeug und ein Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters.
  • Aus dem Stand der Technik sind Systeme für Fahrzeuge bekannt zum Bestimmen eines Wetters und Ableiten von Aktionen auf das bestimmte Wetter. Beispielsweise sind Regensensoren bekannt, die automatisiert Scheibenwischer ansteuern.
  • Der Erfindung hat die Aufgabe zugrunde gelegen, die Bestimmung des Wetters bei Fahrten mit Fahrzeugen zu verbessern.
  • Durch das erfindungsgemäße computerimplementierte Verfahren wird ein Wetter selbstständig mittels maschinellen Lernens gelernt. Das Verfahren umfasst die folgenden Verfahrensschritte:
    • • Aufnehmen von Umgebungen eines Fahrzeuges während Fahrten des Fahrzeuges mit einer an dem Fahrzeug angebrachten Lichtlaufzeit-Kamera,
    • • Messen der Helligkeiten dieser Aufnahmen mit der Lichtlaufzeit-Kamera und Bereitstellen dieser Messungen als Ist-Trainingsdaten,
    • • in Abhängigkeit von mit diesen Aufnahmen jeweils erfassten Wettern Kennzeichnen der Aufnahme mit dem jeweiligen Wetter und Bereitstellen dieser Kennzeichen als Soll-Wetter,
    • • Eingeben der Ist-Trainingsdaten in einen Klassifikator und Erhalten von Ist-Wettern, wobei der Klassifikator ausgeführt ist, Wetter in Abhängigkeit von Helligkeitswerten zu klassifizieren,
    • • Eingeben von Paaren aus Ist-Wettern und den Soll-Wettern in den Klassifikator, um aus Helligkeitsmessungen der Lichtlaufzeit-Kamera das Wetter zu erhalten.
  • Wetter ist der kurzfristige lokale Zustand der Atmosphäre an der Erdoberfläche. Erscheinungsformen des Wetters sind beispielsweise Sonnenschein, Bewölkung oder Niederschlag. Die Erscheinungsformen des Wetters sind über Hellligkeitsänderungen erfassbar. Beispielsweise ist eine Umgebung bei Sonnenschein hell und bei Regen dunkel. Erfindungsgemäß wird zwischen den Erscheinungsformen auf Basis von Helligkeitsmessungen unterschieden.
  • Maschinelles Lernen bezeichnet den Lernprozess eines künstlichen Systems, Muster oder Gesetzmäßigkeiten anhand von Trainingsdaten zu erkennen inspiriert am Lernvorgang des menschlichen Gehirns, um insbesondere auf neue Informationen zweckgerichtet reagieren zu können. Nach der Trainingsphase können unbekannte Daten vorteilhafterweise beurteilt werden, ohne zunächst auswendig gelernt werden zu müssen.
  • Mit einer Lichtlaufzeit-Kamera, im Englischen time-of-flight (TOF) camera genannt, wird einfallendes Licht gesammelt und damit Helligkeiten gemessen. Durch die Helligkeitsmessungen mit der Lichtlaufzeit-Kamera wird erkannt, ob die Sonne scheint (hell), es regnet (dunkel) oder schneit (sehr dunkel) oder ob es bewölkt ist (Schwankungen zwischen hell und dunkelt). Zusätzlich wird ein Tiefenbild einer Umgebung über pixelweise Messung der Lichtlaufzeit erhalten. Damit wird die Umgebung dreidimensional erfasst. Die Helligkeitsmessungen und die Tiefeninformationen werden vorzugsweise mit einer Kamerasystem internen Auswertungseinheit bestimmt. Eine Lichtlaufzeit-Kamera umfasst eine Beleuchtungseinheit, um eine Szene für eine Tiefenmessung zu beleuchten. Vorzugsweise sendet die Beleuchtung im Infrarotbereich, damit die Umgebung nicht durch die Kamera gestört wird. Damit kann auch das Wetter bestimmt werden, wenn die Umgebung dunkel ist, beispielsweise bei Nacht. Eine separate Beleuchtung ist nicht notwendig. Ferner umfasst eine Lichtlaufzeit-Kamera eine Optik, um von der Umgebung reflektiertes Licht zu sammeln und auf einem Sensor abzubilden. Außerdem umfasst die Lichtlaufzeit-Kamera einen optischen Bandpassfilter, der nur die Wellenlängen durchlässt, mit der auch die Beleuchtung arbeitet. Somit wird ein großer Teil des störenden Hintergrundlichtes eliminiert. Bei Infrarot-Beleuchtung wird damit der sichtbare Bereich des Sonnenlichts eliminiert. Die Lichtlaufzeit-Kamera ist damit unempfindlich gegen Sonnenlicht. Damit kann das Wetter genauer bestimmt werden. Die Pixel des Sensors sammeln Licht in jeweils separaten Speichern, um über unterschiedliche Lichtlaufzeiten Entfernungen zu bestimmen. Eine Lichtlaufzeit-Kamera liefert damit im Vergleich zu einer gewöhnlichen Kamera zusätzlich Tiefeninformationen, mittels denen Wetter genauer bestimmt werden kann. Insbesondere wird die Art des Regens mit der Lichtlaufzeit-Kamera genau erfassbar, beispielsweise ist mit der Lichtlaufzeit-Kamera unterscheidbar zwischen Sprühregen, Hagel, starken Regen und Graupelregen.
  • Ein Klassifikator teilt Objekte oder Situationen in Klassen ein und erkennt Muster. Ein Klassifikator ist beispielsweise in einem Algorithmus implementiert. Der Klassifikator führt eine maschinelle Klassifikation durch. Die Klassifikation wird aus gegebenen Paaren von Ist-Wettern und Soll-Wettern gelernt. Das Ist-Wetter ist das Wetter, das der Klassifikator erhält. Das Soll-Wetter ist das tatsächliche Wetter, das in den Klassifikator in Form der Kennzeichen eingegeben wird. Die Kennzeichen werden auch features, targets oder labels genannt. Beispielsweise wird eine Aufnahme des Wetters Schnee, die durch eine sehr dunkle Helligkeitsmessung gekennzeichnet ist, mit der Metainformation „Die Aufnahme zeigt Schnee.“ gelabelt. Damit wird der gemessene Helligkeitswert mit der Wetterinformation Schnee in Relation gesetzt. Durch das Trainieren des Klassifikators mit den Ist-Wettern und den Soll-Wettern wird der Klassifikator optimiert, um aus Helligkeitsmessungen der Lichtlaufzeit-Kamera das Wetter zu erhalten. Dabei lernt der Klassifikator von selbst eine innere Struktur, um geringfügige Helligkeitsschwankungen dem jeweils tatsächlich zugrunde liegenden Wetter zuzuordnen.
  • Nach einem Aspekt der Erfindung werden die Umgebungen des Fahrzeuges bei abgeschalteter Beleuchtung der Lichtlaufzeit-Kamera aufgenommen, um Infrarot-Helligkeiten der Umgebungen zu messen. Damit können die Beleuchtungseinheit und der Bandpassfilter der Lichtlaufzeit-Kamera entfallen. Außerdem werden damit Temperaturschwankungen mit der Lichtlaufzeit-Kamera erfassbar. Damit sind Kälte, Wärme und/oder Winde vorteilhafterweise mit der Lichtlaufzeit-Kamera erfassbar.
  • Nach einem weiteren Aspekt der Erfindung wird eine Route wiederholt mit dem Fahrzeug befahren, um verschiedene Soll-Wetter auf dieser Route zu erhalten. Wenn immer die gleiche Route befahren wird, werden möglichst alle Wetterbedingungen auf der Route einmal aufgenommen. Damit wird erreicht, dass möglichst alle Wetterbedingungen bei sonst gleichen Bedingungen aufgenommen werden. Damit wird das Lernen verbessert und die Klassifikation genauer. Vorzugsweise wird die Route wiederholt bei abgeschalteter Beleuchtung der Lichtlaufzeit-Kamera abgefahren.
  • Nach einem weiteren Aspekt der Erfindung ist der Klassifikator ein Random Forest Klassifikator, eine Support Vector Machine oder ein künstlich neuronales Netzwerk ist.
  • Random Forest ist ein Klassifikator umfassend unkorrelierte Entscheidungsbäume, die nach einer bestimmten Randomisierung während eines Lernprozesses wachsen. Für eine Klassifikation darf jeder Baum in diesem Wald eine Entscheidung treffen und die Klasse mit den meisten Stimmen entscheidet die endgültige Klassifikation. Vorteile des Random Forest sind insbesondere, dass er relativ schnell trainiert aufgrund kurzen Trainings- und/oder Aufbauzeiten eines einzelnen Entscheidungsbaums, dass Evaluierungen aufgrund mehrerer Bäume parallelisierbar sind und dass wichtige Klassen, wie zum Beispiel Regen, erkannt werden können.
  • Eine Support Vector Machine ist ein Klassifikator, die eine Menge von Objekten derart in Klassen unterteilt, dass um Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt. Eine Support Vector Machine ist insbesondere bei wiederholtem Befahren ein und derselben Route von Vorteil.
  • Ein künstlich neuronales Netzwerk ist eine Ansammlung von einzelnen Informationsverarbeitungseinheiten, Neuronen genannt, die schichtweise in einer Netzarchitektur angeordnet sind. Zu Beginn des Trainings hat jedes Neuron ein zufälliges Anfangsgewicht. Trainingsdaten werden in das künstliche neuronale Netzwerk in einem sogenannten forward pass eingespeist. Jedes Neuron gewichtet seine EingangsSignale mit seinem Gewicht und gibt das Ergebnis weiter an Neuronen anderer Schichten. In der Ausgangsschicht wird das Gesamtergebnis berechnet. Der Unterschied zwischen Ist-Wetter und Soll-Wetter wird berechnet in einer Rückwärtsspeisung, dem sogenannten backward pass. Dabei wird auch der Anteil berechnet, den jedes Neuron an diesem Unterschied hat, und dann das Gewicht jedes Neurons in die Richtung verändert, die den Fehler minimiert. Der Unterschied ist eine Funktion der Gewichte. Der Unterschied zwischen Ist-Wetter und Soll-Wetter, ausgedrückt durch das Ergebnis des Klassifikators, wird durch eine Kostenfunktion bewertet. Bei der Rückwärtsspeisung wird der Gradient des Fehlers nach den einzelnen Gewichten rückwärtsgespeist. So weiß man, ob und wie stark sich der Unterschied zwischen Ist-Wetter und Soll-Wetter minimiert, wenn man das jeweilige Gewicht vergrößert oder verkleinert. Durch Minimierung des Unterschieds in der Trainingsphase, zum Beispiel mittels der Methode der kleinsten Quadrate, der aus der Informationstheorie bekannten Kreuz-Entropie oder dem Gradientenabstiegsverfahren, werden damit die Gewichte geändert. Dann erfolgt der nächste Durchlauf, eine erneute Messung des Fehlers und Anpassung der Gewichte und so weiter. Damit lernt das künstliche neuronale Netzwerk zunehmend besser, von den Trainingsdaten auf die bekannten Soll-Wetter zu schließen. Das künstliche neuronale Netzwerk ist zum Beispiel ein vollständig verbundenes Netzwerk, im Englischen als Fully Connected Network bezeichnet. In einem vollständig verbundenen Netzwerk ist jedes Neuron einer Schicht mit allen Neuronen der vorausgehenden Schicht verbunden. Jede Verbindung hat ihr eigenes Gewicht. Vorzugsweise ist das künstliche neuronale Netzwerk ein Fully Convolutional Network. In einem konvolutionalen neuronalen Netzwerk wird ein Filter auf eine Schicht von Neuronen unabhängig von der Position mit den gleichen Gewichten angewendet. Das konvolutionale neuronale Netzwerk umfasst mehrere Poolingschichten zwischen den konvolutionalen Schichten. Poolingschichten verändern die Dimension einer zweidimensionalen Schicht in Breite und Höhe. Poolingschichten werden auch für höherdimensionale Schichten verwendet. Alternativ umfasst das künstliche neuronale Netzwerk eine dem Fachmann bekannte rekurrente Struktur mit einem long short term memory Aufbau.
  • Nach einem weiteren Aspekt der Erfindung werden nach der Trainingsphase alle Gewichte als sogenannter checkpoint gespeichert. Das künstliche neuronale Netzwerk kann dann jederzeit mit diesen optimierten Gewichten erneut gestartet werden. Während das Training oft sehr rechenintensiv ist und insbesondere bei Bildern als Input Daten meist eine GPU oder einen GPU Cluster erfordert, ist der eigentliche Betrieb eines trainierten neuronalen Netzes deutlich schlanker und schneller und kann z.B. auch auf Mobilgeräten oder normalen Laptops/PCs nahezu in Echtzeit erfolgen. Ein fertig trainiertes künstliches neuronales Netz kann mit Hilfe des Checkpoints auch jederzeit mit neuen Daten nachtrainiert werden. Dazu werden initial die bestehenden Werte aus dem Checkpoint in das Netz geladen, und die neuen Daten zum Training verwendet. Die neuen Daten sind beispielsweise Aufnahmen von Fußgängern und/oder Fremdfahrzeugen in der Umgebung des Fahrzeuges mit entsprechenden Labels. Damit kann der Klassifikator auch lernen, Objekte, beispielsweise Fußgänger oder Fremdfahrzeuge, zu erkennen und zu klassifizieren. Es ist auch möglich, ein vortrainiertes neuronales Netz als Basis für das Training mit eigenen Daten zu verwenden, indem z.B. der letzte Layer eines mit sehr vielen Bildern trainierten Netzes durch einen eigenen neuen Layer ersetzt wird, etwa zur Klassifizierung von eigenen Objekten. Damit kann beispielsweise ein auf Objekterkennung bereits trainierter Klassifikator verwendet werden, der mit Wetterdaten antrainiert wird, um zusätzlich zur Objekterkennung auch das Wetter bestimmen zu können.
  • Das erfindungsgemäße Steuergerät für automatisierte Fahrfunktionen umfasst wenigstens eine erste Schnittstelle zu einer an einem Fahrzeug anbringbaren Lichtlaufzeit-Kamera. Mittels der ersten Schnittstelle werden Aufnahmen der Lichtlaufzeit-Kamera erhalten. Ferner umfasst das Steuergerät eine Recheneinheit. Die Recheneinheit ist ausgeführt, einen nach einem erfindungsgemäße Verfahren trainierten Klassifikator auszuführen, um jeweils ein Wetter in Abhängigkeit der Aufnahmen der Lichtlaufzeit-Kamera zu bestimmen und in Abhängigkeit des Wetters ein Signal für eine Mensch-Maschinen-Benutzungsschnittstelle und/oder ein Fahrzeugsteuerungssystem zu bestimmen. Außerdem umfasst das Steuergerät eine eine zweite Schnittstelle, um das Signal der Mensch-Maschinen-Benutzungsschnittstelle und/oder dem Fahrzeugsteuerungssystem bereitzustellen.
  • Ein Steuergerät bereitet die Daten von Sensoren als Eingangssignale auf, verarbeitet diese mittels einer Recheneinheit, beispielsweise einem FGPA oder ASIC Baustein oder einer Computerplattform, und stellt Logik- und/oder Leistungspegel als Regel- oder Steuersignale bereit. Das bestimmte Signal ist ein Regel- oder Steuersignal. Mit dem bestimmten Signal werden über die zweite Schnittstelle Mensch-Maschinen-Benutzungsschnittstellen, auch human machine interface, abgekürzt HMI, genannt, zum Beispiel Anzeigevorrichtungen eines Infotainmentsystems, und/oder Fahrzeugaktuatoren eines Fahrzeugsteuerungssystems, insbesondere Aktuatoren für Längs- und/oder Quersteuerung und/oder Sicherheitssysteme, geregelt und gesteuert, um einen an das jeweilige Wetter adaptierten automatisierten oder autonomen Fahrbetrieb zu ermöglichen. Damit wird die Sicherheit bei wetterbedingtem Fahren erhöht. Beispielsweise wird bei Niederschlag die maximale Fahrgeschwindigkeit automatisch limitiert und/oder Scheibenwischer des Fahrzeuges aktiviert. Das Steuergerät ist signaltechnisch mit der Lichtlaufzeit-Kamera über die erste Schnittstelle verbunden. Der Datenaustausch erfolgt kabelgebunden oder kabellos, zum Beispiel über Funktechnologie, beispielsweise über einen WLAN Standard. Das Steuergerät ist nach einem weiteren Aspekt der Erfindung in ein Bordnetz des Fahrzeuges integriert, beispielsweise in einen CAN-Bus. Das Steuergerät ist insbesondere ein elektronisches Steuergerät für automatisierte Fahrfunktionen, im Englischen Domain ECU genannt, insbesondere eine ADAS/AD Domain ECU für assistiertes bis vollautomatisiertes, das heißt autonomes, Fahren.
  • Die erste Schnittstelle ist insbesondere eine Schnittstelle zu einem gigabit multimedia serial link serializer deserializer integrierten Schaltkreis, auch als GMSL SerDes IC bekannt. Damit wird eine Hochgeschwindigkeitsschnittstelle bereitgestellt, um große Datenvolumina der Lichtlaufzeit-Kamera in relativ kurzer Zeit zu übertragen. Vorzugsweise ist die Lichtlaufzeit-Kamera über ein abgeschirmtes Kabel mit verdrillten Adernpaaren, ein sogenanntes shielded twisted pair Kabel, mit der ersten Schnittstelle verbunden. Derartige Kabel bieten Schutz gegen störende äußere elektromagnetische Felder.
  • Die Recheneinheit des Steuergeräts ist beispielsweise als ein System-on-a-Chip realisiert mit modularem Hardwarekonzept, das heißt alle oder zumindest ein großer Teil der Funktionen sind auf einem Chip integriert und können modular erweitert werden. Der Chip ist in das Steuergerät integrierbar. Die Recheneinheit umfasst beispielsweise einen Mehrkernprozessor und Speichermodule. Der Mehrkernprozessor ist für einen Signal-/Datenaustausch mit Speichermodulen konfiguriert. Beispielsweise umfasst der Mehrkernprozessor ein Bussystem. Die Speichermodule bilden den Arbeitsspeicher. Die Speichermodule sind beispielsweise RAM, DRAM SDRAM oder SRAM. Bei einem Mehrkernprozessor sind mehrere Kerne auf einem einzigen Chip, das heißt einem Halbleiterbauelement, angeordnet sind. Mehrkernprozessoren erreichen eine höhere Rechenleistung und sind kostengünstiger in einem Chip zu implementieren im Vergleich zu Mehrprozessorsystemen, bei denen jeder einzelne Kern in einem Prozessorsockel angeordnet ist und die einzelnen Prozessorsockel auf einer Hauptplatine angeordnet sind. Die Recheneinheit umfasst vorzugsweise wenigstens einen zentralen Verarbeitungsprozessor, im Englischen als Central Processing Unit, abgekürzt CPU, bezeichnet. Die Recheneinheit umfasst auch wenigstens einen Grafikprozessor, im Englischen als Graphic Processing Unit, abgekürzt GPU, bezeichnet. Grafikprozessoren besitzen eine spezielle Mikroarchitektur zum parallelen Prozessieren von Abläufen. Insbesondere umfasst ein Grafikprozessor wenigstens eine Prozesseinheit, die speziell zum Ausführen von Tensor-und/oder Matrixmultiplikationen ausgeführt ist. Tensor- und/oder Matrixmultiplikationen sind die zentralen Rechenoperationen für das Deep Learning. Die Recheneinheit umfasst vorzugsweise auch Hardware Beschleuniger für künstliche Intelligenz, insbesondere sogenannte Deep Learning Accelerators. Ferner ist die Recheneinheit oder das Steuergerät konfiguriert, modular mit mehreren, vorzugsweise mindestens vier, derartiger Chips erweitert zu werden.
  • Nach einem weiteren Aspekt der Erfindung führt die Recheneinheit einen der vorausgehend genannten Klassifikatoren aus. Insbesondere führt die Recheneinheit ein entsprechend trainiertes künstliches neuronales Netzwerk aus.
  • Das erfindungsgemäße Überwachungssystem für ein Fahrzeug umfasst eine Lichtlaufzeit-Kamera und ein erfindungsgemäßes Steuergerät. Zwischen der Lichtlaufzeit-Kamera und dem Steuergerät erfolgt ein Datenaustausch. Die Recheneinheit des Steuergeräts ist zur Computer Vision ausgeführt, um Objekte in den Aufnahmen zu erkennen.
  • Das Überwachungssystem ist ein Innenraumüberwachungssystem oder ein Außenraumüberwachungssystem. Überwachungssysteme sind Sensorsysteme zur Lokalisation und/oder Klassifikation von beispielsweise Fahrzeuginsassen, Fußgängern oder Objekten im und/oder außerhalb des Fahrzeuges, beispielsweise Fußgänger oder Fremdfahrzeuge. Das Innenraumüberwachungssystem liefert insbesondere Daten für sicherheitsrelevante Aspekte, zum Beispiel mit welcher Kraft Airbags und/oder Gurtstraffer ausgelöst werden sollen in Abhängigkeit einer Position eines Fahrzeuginsassen oder Innenraumtemperaturen. Das Innenraumüberwachungssystem bestimmt auch den Einsatz weiterer adaptiver Sicherheitsfunktionen. Die Lichtlaufzeit-Kamera des Innenraumüberwachungssystems ist nach außen ausrichtbar, um auch Umgebungen außerhalb des Fahrzeuginnenraums aufzunehmen. Das Außenraumüberwachungssystem steuert aktive Sicherheitssysteme, zum Beispiel Bremsen.
  • Computer Vision beschäftigt sich damit, wie Recheneinheiten oder Computer ein High-Level Verständnis von Bildern oder Videodaten erhalten. High-Level Merkmale sind Merkmale, die ein Mensch aus einem Bild gewinnt. Betrachtet ein Mensch beispielsweise ein Bild einer Straßenszene, das einen eine Überquerung passierenden Fußgänger mit einem vor dem Fußgänger anhaltenden Fahrzeug zeigt, identifiziert der Mensch diese Szene als Fahrzeug hält an und wartet, bis Fußgänger die Überquerung passiert hat. Low-Level Merkmale sind Merkmale, die beispielsweise ein deterministischer Bildverarbeitungsalgorithmus aus dem Bild gewinnt, zum Beispiel der Verlauf von Kanten oder Punkten. Die Recheneinheit lernt die High-Level Merkmale. Insbesondere führt die Recheneinheit ein künstliches neuronales Netzwerk aus mit mehreren versteckten Schichten, sogenannten hidden layers. Beispielsweise erfasst eine erste dieser Schichten Kanten in dem Bild. Eine zweite dieser Schichten erfasst Kurven, die Umrisse des Körpers des Fußgängers sind. Eine dritte dieser Schichten erfasst den Fußgänger vollständig.
  • Das erfindungsgemäße Verfahren zum Bestimmen eines Wetters umfasst die Verfahrensschritte
    • • Aufnehmen von Umgebungen eines Fahrzeuges während Fahrten des Fahrzeuges mit einer an dem Fahrzeug angebrachten Lichtlaufzeit-Kamera,
    • • Messen der Helligkeiten dieser Aufnahmen mit der Lichtlaufzeit-Kamera und Bereitstellen dieser Messungen als Eingangsdaten für einen nach dem erfindungsgemäßen Verfahren trainierten Klassifikator und
    • • Erhalten des Wetters aus Helligkeitsmessungen der Lichtlaufzeit-Kamera, wobei zur Durchführung des Verfahrens ein erfindungsgemäßes Steuergerät oder ein erfindungsgemäßes Überwachungssystem verwendet wird.
  • Das erfindungsgemäße Computerprogramm zum Bestimmen eines Wetters umfasst Befehle, die bewirken, dass ein erfindungsgemäßes Steuergerät oder ein erfindungsgemäßes Überwachungssystem ein erfindungsgemäßes Verfahren ausführt, wenn das Computerprogramm auf dem Steuergerät läuft. Die Befehle sind beispielsweise als Softwarecodeabschnitte realisiert.
  • Die Erfindung wird anhand der in den Figuren dargestellten Ausführungsbeispiele erläutert. Es zeigen:
    • 1 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zum maschinellen Lernen eines Wetters und
    • 2 ein Ausführungsbeispiel eines erfindungsgemäße Steuergeräts.
  • In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile.
  • Ein künstliches neuronales Netzwerk als Beispiel eines Klassifikators ANN wird gemäß dem in 1 gezeigten Verfahren trainiert, ein Wetter zu bestimmen. Zunächst werden während Fahrten eines Fahrzeuges Umgebungen des Fahrzeuges aufgenommen mit einer an dem Fahrzeug angebrachten Lichtlaufzeit-Kamera 10. Dabei ist eine Beleuchtungseinheit der Lichtlaufzeit-Kamera 10 ausgeschaltet, sodass Infrarot-Helligkeiten der Umgebungen erhalten werden. Anschließend oder parallel mit dem Vorgang der Aufnahme werden Helligkeiten der Aufnahmen mit der Lichtlaufzeit-Kamera 10 gemessen.
  • Die Helligkeitsmessungen werden als Ist-Trainingsdaten bereitgestellt. Die Aufnahmen werden in Abhängigkeit von dem mit der Aufnahme jeweils erfassten Wetter gelabelt. Die Label werden als Soll-Wetter bereitgestellt. Die Ist-Trainingsdaten werden in den Klassifikator ANN eingegeben. Der Klassifikator ANN berechnet Ist-Wetter. Die Ist-Wetter werden mit den dazugehörigen Soll-Wettern paarweise in den Klassifikator ANN eingegeben, um aus Helligkeitsmessungen der Lichtlaufzeit-Kamera 10 das Wetter zu erhalten.
  • Das in 2 gezeigte Überwachungssystem 30 ist beispielsweise ein Innenraumüberwachungssystem. Die Lichtlaufzeit-Kamera 10 des Überwachungssystems 30 ist auf einen Fahrzeugaußenraum gerichtet.
  • Das Überwachungssystem umfasst ein Steuergerät 20. Das Steuergerät 20 ist eine ADAS/AD Domain ECU.
  • Das Steuergerät 20 umfasst eine erste Schnittstell 21. Über die erste Schnittstelle 21 erhält das Steuergerät Aufnahmen der Lichtlaufzeit-Kamera 10. Die Aufnahmen umfassen Helligkeitsmessungen und Tiefeninformationen.
  • Das Steuergerät 20 umfasst auch eine Recheneinheit 22. Die Recheneinheit 22 führt als einen Klassifikator ANN ein künstliches neuronales Netzwerk aus. Das künstliche neuronale Netzwerk ist nach dem in 1 gezeigten Verfahren trainiert. Das künstliche neuronale Netzwerk ist beispielsweise ein fully connected Netzwerk mit einer Eingangsschicht, einer Ausgangsschicht und zwei hidden layers. Jedes Neuron N einer Schicht ist über Neuronenverbindungen mit jedem Neuron N der folgenden Schicht verbunden. Die Neuronenverbindungen werden mit Gewichten G gewichtet. Während dem Training stellt sich dabei eine Neuronenverbindung stärker oder schwächer als eine andere Neuronenverbindung ein. Das künstliche neuronale Netzwerk bestimmt ein Wetter aus der erhaltenen Helligkeitsmessung und berechnet ein entsprechendes Signal beispielsweise für eine Fahrzeugsteuerungseinrichtung. Das Signal wird der Fahrzeugsteuerungseinrichtung über eine zweite Schnittstelle 23 bereitgestellt. Beispielsweise wird bei klassifiziertem Schneewetter der Fahrzeugsteuerungseinrichtung das Signal bereitgestellt, die Fahrzeuggeschwindigkeit auf 80km/h zu limitieren.
  • Bezugszeichenliste
  • 10
    Lichtlaufzeit-Kamera
    20
    Steuergerät
    21
    erste Schnittstelle
    22
    Recheneinheit
    23
    zweite Schnittstelle
    30
    Überwachungssystem
    ANN
    Klassifikator
    N
    Neuron
    G
    Gewicht

Claims (9)

  1. Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters umfassend die folgenden Verfahrensschritte • Aufnehmen von Umgebungen eines Fahrzeuges während Fahrten des Fahrzeuges mit einer an dem Fahrzeug angebrachten Lichtlaufzeit-Kamera (10), • Messen der Helligkeiten dieser Aufnahmen mit der Lichtlaufzeit-Kamera (10) und Bereitstellen dieser Messungen als Ist-Trainingsdaten, • in Abhängigkeit von mit diesen Aufnahmen jeweils erfassten Wettern Kennzeichnen der Aufnahme mit dem jeweiligen Wetter und Bereitstellen dieser Kennzeichen als Soll-Wetter, • Eingeben der Ist-Trainingsdaten in einen Klassifikator (ANN) und Erhalten von Ist-Wettern, wobei der Klassifikator (ANN) ausgeführt ist, Wetter in Abhängigkeit von Helligkeitswerten zu klassifizieren, und • Eingeben von Paaren aus Ist-Wettern und den Soll-Wettern in den Klassifikator (ANN), um aus Helligkeitsmessungen der Lichtlaufzeit-Kamera (10) das Wetter zu erhalten.
  2. Verfahren nach Anspruch 1, wobei die Umgebungen des Fahrzeuges bei abgeschalteter Beleuchtung der Lichtlaufzeit-Kamera (10) aufgenommen werden, um Infrarot-Helligkeiten der Umgebungen zu messen.
  3. Verfahren nach Anspruch 1 oder 2, wobei eine Route wiederholt mit dem Fahrzeug befahren wird, um verschiedene Soll-Wetter auf dieser Route zu erhalten.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei der Klassifikator (ANN) ein Random Forest Klassifikator, eine Support Vector Machine oder ein künstlich neuronales Netzwerk ist.
  5. Steuergerät (20) für automatisierte Fahrfunktionen umfassend • wenigstens eine erste Schnittstelle (21) zu einer an einem Fahrzeug anbringbaren Lichtlaufzeit-Kamera (10), um Aufnahmen der Lichtlaufzeit-Kamera (10) zu erhalten, • eine Recheneinheit (22), die ausgeführt ist, einen nach einem Verfahren der Ansprüche 1 bis 3 trainierten Klassifikator (ANN) auszuführen, um jeweils ein Wetter in Abhängigkeit der Aufnahmen der Lichtlaufzeit-Kamera (10) zu bestimmen und in Abhängigkeit des Wetters ein Signal für eine Mensch-Maschinen-Benutzungsschnittstelle und/oder ein Fahrzeugsteuerungssystem zu bestimmen, und • eine zweite Schnittstelle (23), um das Signal der Mensch-Maschinen-Benutzungsschnittstelle und/oder dem Fahrzeugsteuerungssystem bereitzustellen.
  6. Steuergerät (20) nach Anspruch 5, wobei die Recheneinheit (22) einen der in Anspruch 4 genannten Klassifikatoren (ANN) ausführt.
  7. Überwachungssystem (30) für ein Fahrzeug umfassend eine Lichtlaufzeit-Kamera (10) und ein Steuergerät (20) nach Anspruch 5 oder 6, wobei zwischen der Lichtlaufzeit-Kamera (10) und dem Steuergerät (20) ein Datenaustausch erfolgt und wobei die Recheneinheit (22) des Steuergeräts (20) zur Computer Vision ausgeführt ist, um Objekte in den Aufnahmen zu erkennen.
  8. Verfahren zum Bestimmen eines Wetters umfassend die Verfahrensschritte • Aufnehmen von Umgebungen eines Fahrzeuges während Fahrten des Fahrzeuges mit einer an dem Fahrzeug angebrachten Lichtlaufzeit-Kamera (10), • Messen der Helligkeiten dieser Aufnahmen mit der Lichtlaufzeit-Kamera (10) und Bereitstellen dieser Messungen als Eingangsdaten für einen nach dem Verfahren der Ansprüche 1 bis 4 trainierten Klassifikator (ANN) und • Erhalten des Wetters aus Helligkeitsmessungen der Lichtlaufzeit-Kamera (10), wobei zur Durchführung des Verfahrens ein Steuergerät (20) nach Anspruch 5 oder 6 oder ein Überwachungssystem (30) nach Anspruch 7 verwendet wird.
  9. Computerprogramm zum Bestimmen eines Wetters umfassend Befehle, die bewirken, dass ein Steuergerät (20) nach Anspruch 5 oder 6 oder ein Überwachungssystem (30) nach Anspruch 7 ein Verfahren nach Anspruch 8 ausführt, wenn das Computerprogramm auf dem Steuergerät (20) läuft.
DE102019214217.6A 2019-09-18 2019-09-18 Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, Steuergerät für automatisierte Fahrfunktionen, Überwachungssystem für ein Fahrzeug und Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters Active DE102019214217B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019214217.6A DE102019214217B4 (de) 2019-09-18 2019-09-18 Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, Steuergerät für automatisierte Fahrfunktionen, Überwachungssystem für ein Fahrzeug und Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019214217.6A DE102019214217B4 (de) 2019-09-18 2019-09-18 Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, Steuergerät für automatisierte Fahrfunktionen, Überwachungssystem für ein Fahrzeug und Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters

Publications (2)

Publication Number Publication Date
DE102019214217A1 true DE102019214217A1 (de) 2021-03-18
DE102019214217B4 DE102019214217B4 (de) 2024-06-27

Family

ID=74686728

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019214217.6A Active DE102019214217B4 (de) 2019-09-18 2019-09-18 Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, Steuergerät für automatisierte Fahrfunktionen, Überwachungssystem für ein Fahrzeug und Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters

Country Status (1)

Country Link
DE (1) DE102019214217B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104738A1 (de) 2021-02-26 2022-09-01 Ford Global Technologies, Llc Verfahren zum Betrieb eines Kraftfahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013226631A1 (de) * 2013-12-19 2015-06-25 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102017210157A1 (de) * 2017-06-19 2018-12-20 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum mobilen Erfassen von Wetterinformationen
DE102017217072A1 (de) * 2017-09-26 2019-03-28 Volkswagen Aktiengesellschaft Verfahren zum Erkennen eines Witterungsverhältnisses in einer Umgebung eines Kraftfahrzeugs sowie Steuervorrichtung und Kraftfahrzeug
US20190230303A1 (en) * 2018-01-24 2019-07-25 TuSimple Method, device and system for image acquisition control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013226631A1 (de) * 2013-12-19 2015-06-25 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102017210157A1 (de) * 2017-06-19 2018-12-20 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum mobilen Erfassen von Wetterinformationen
DE102017217072A1 (de) * 2017-09-26 2019-03-28 Volkswagen Aktiengesellschaft Verfahren zum Erkennen eines Witterungsverhältnisses in einer Umgebung eines Kraftfahrzeugs sowie Steuervorrichtung und Kraftfahrzeug
US20190230303A1 (en) * 2018-01-24 2019-07-25 TuSimple Method, device and system for image acquisition control

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHENG, Guo; WANG, Zheyuan; ZHENG, Jiang Yu: Modeling Weather and Illuminations in Driving Views Based on Big-Video Mining. In: IEEE Transactions on Intelligent Vehicles, 2018, 3. Jg., Nr. 4, S. 522-533. *
YAN, Xunshi; LUO, Yupin; ZHENG, Xiaoming: Weather recognition based on images captured by vision system in vehicle. In: International Symposium on Neural Networks. Springer, Berlin, Heidelberg, 2009. S. 390-398. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104738A1 (de) 2021-02-26 2022-09-01 Ford Global Technologies, Llc Verfahren zum Betrieb eines Kraftfahrzeugs

Also Published As

Publication number Publication date
DE102019214217B4 (de) 2024-06-27

Similar Documents

Publication Publication Date Title
CN107292386B (zh) 使用深度学习的基于视觉的雨水检测
DE102016116029B4 (de) Klassifikation von durch 3D-Sensoren erfassten Objekten
CN106599773B (zh) 用于智能驾驶的深度学习图像识别方法、系统及终端设备
DE102015109270B4 (de) Verfahren zum Ermitteln eines Straßenbelagszustands für ein Fahrzeug
DE102014210820B4 (de) Verfahren zum Nachweis von großen und Passagierfahrzeugen von festen Kameras
US8081209B2 (en) Method and system of sparse code based object classification with sensor fusion
DE102017127592A1 (de) Verfahren zum Klassifizieren von Bildszenen in einem Fahrunterstützungssystem
CN108280415A (zh) 基于智能移动终端的驾驶行为识别方法
CN109919074B (zh) 一种基于视觉感知技术的车辆感知方法及装置
DE102014103136A1 (de) Objektdetektionsvorrichtung
DE102020214283A1 (de) Vorrichtung zur erkennung von hindernissen, fahrzeugsystem mit dieser und verfahren dafür
CN105512623A (zh) 基于多传感器雾天行车视觉增强与能见度预警系统及方法
DE102018218015A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Zustands einer Fahrzeugleuchte eines Fahrzeugs
CN108694408B (zh) 一种基于深度稀疏滤波卷积神经网络的驾驶行为识别方法
Sebastian et al. RangeWeatherNet for LiDAR-only weather and road condition classification
EP3904833B1 (de) Vorrichtung und verfahren zur auswertung von signalen von umfelderfassungssensoren für eine trajektorienregelung und/oder -steuerung eines automatisiert betreibbaren fahrzeuges
Kapoor et al. An intelligent railway surveillance framework based on recognition of object and railway track using deep learning
DE102019200849A1 (de) Verfahren zum Erfassen einer Bewegung eines Objekts
DE102019214217B4 (de) Computerimplementiertes Verfahren zum maschinellen Lernen eines Wetters, Steuergerät für automatisierte Fahrfunktionen, Überwachungssystem für ein Fahrzeug und Verfahren und Computerprogrammprodukt zum Bestimmen eines Wetters
DE102020103204A1 (de) Partial-Schlussfolgerungstechnologie in allgemeinen Objektdetektionsnetzwerken zur effizienten Videoverarbeitung
CN104417489A (zh) 一种汽车安全带检测方法及汽车安全带检测装置
DE112010005669T5 (de) System zur Straßenoberflächenreflektivitätsklassifizierung
Choi et al. Real-time power line detection network using visible light and infrared images
DE102014100364B4 (de) Verfahren zum Bestimmen, ob eine Augen-abseits-der-Straße-Bedingung vorliegt
DE102013226725A1 (de) Verfahren und system für das erkennen einer handgeste, wobei selektive beleuchtung benutzt wird

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division