DE102017123002A1 - Mehrfachsensor-niederschlagsklassifizierung vorrichtung und verfahren - Google Patents

Mehrfachsensor-niederschlagsklassifizierung vorrichtung und verfahren Download PDF

Info

Publication number
DE102017123002A1
DE102017123002A1 DE102017123002.5A DE102017123002A DE102017123002A1 DE 102017123002 A1 DE102017123002 A1 DE 102017123002A1 DE 102017123002 A DE102017123002 A DE 102017123002A DE 102017123002 A1 DE102017123002 A1 DE 102017123002A1
Authority
DE
Germany
Prior art keywords
vehicle
neural network
data
precipitation
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017123002.5A
Other languages
English (en)
Inventor
Ramchandra Ganesh Karandikar
Nikhil Nagraj Rao
Scott Vincent Myers
Francois Charette
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017123002A1 publication Critical patent/DE102017123002A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0428Safety, monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • B60S1/0818Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like
    • B60S1/0822Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means
    • B60S1/0833Optical rain sensor
    • B60S1/0844Optical rain sensor including a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • B60S1/0818Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like
    • B60S1/0822Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means
    • B60S1/0859Other types of detection of rain, e.g. by measuring friction or rain drop impact
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18172Preventing, or responsive to skidding of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/068Road friction coefficient
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/14Rainfall or precipitation gauges
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0086Recalibrating datum positions, e.g. by using check cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2422/00Indexing codes relating to the special location or mounting of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/40Coefficient of friction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2603Steering car
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2637Vehicle, car, auto, wheelchair

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Environmental & Geological Engineering (AREA)
  • Hydrology & Water Resources (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Es wird ein Fahrzeug offenbart, das Daten von unterschiedlichen Arten von Sensoren an Bord verwendet, um zu bestimmen, ob meteorologischer Niederschlag in der Nähe des Fahrzeugs fällt. Das Fahrzeug kann eine Kamera an Bord beinhalten, die Bilddaten aufnimmt, und einen Beschleunigungsmesser an Bord, der Beschleunigungsmesserdaten erfasst. Die Bilddaten können einen Bereich vor oder hinter dem Fahrzeug kennzeichnen. Die Beschleunigungsmesserdaten können Vibrationen einer Windschutzscheibe des Fahrzeugs kennzeichnen. Ein künstliches neuronales Netz kann eine Computer-Hardware ausführen, die an Bord des Fahrzeugs getragen wird. Das künstliche neuronale Netz kann trainiert werden, um meteorologischen Niederschlag in einer Umgebung des Fahrzeugs unter Verwendung der Bilddaten und der Beschleunigungsmesserdaten als Eingaben zu klassifizieren. Die Klassifizierungen des künstlichen neuronalen Netzes können verwendet werden, um eine oder mehrere Funktionen des Fahrzeugs zu steuern, wie z.°B. Windschutzscheibenwischergeschwindigkeits- oder Traktionssteuerungseinstellungen oder der gleichen.

Description

  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft Fahrzeugsysteme und insbesondere Systeme und Verfahren zum Entwickeln, Trainieren und Anwenden von Algorithmen für die Klassifizierung von meteorologischem Niederschlag oder bestimmten Effekten davon in einer Fahrumgebung.
  • HINTERGRUND DER ERFINDUNG
  • Regen und anderer meteorologischer Niederschlag können die Funktionalität von Fahrzeugen beeinflussen. Beispielsweise kann Regen die Traktion verringern, die Blendung verstärken, die Sicht beeinträchtigen oder Ähnliches. Dementsprechend werden ein Fahrzeugsystem und -verfahren zum Erkennen und Reagieren auf Regen und anderen meteorologischen Niederschlag benötigt.
  • Figurenliste
  • Um die Vorteile der Erfindung ohne Weiteres zu verstehen, wird eine genauere Beschreibung der oben kurz beschriebenen Erfindung durch Verweis auf spezifische Ausführungsformen, welche in den beigefügten Zeichnungen veranschaulicht sind, bereitgestellt. Unter der Kenntnisnahme, dass diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Geltungsbereich beschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch die Verwendung der begleitenden Zeichnungen beschrieben und erläutert, wobei:
    • 1 ein schematisches Blockdiagramm ist, das eine Ausführungsform eines Systems gemäß der vorliegenden Erfindung veranschaulicht, das an Bord eines Fahrzeugs getragen ist;
    • 2 ein schematisches Blockdiagramm ist, das eine Ausführungsform eines Systems gemäß der vorliegenden Erfindung veranschaulicht;
    • 3 ein schematisches Blockdiagramm einer Ausführungsform eines Trainingsverfahrens gemäß der vorliegenden Erfindung ist;
    • 4 ein schematisches Blockdiagramm eines zweidimensionalen Raums ist, der in eine Mehrzahl von Klassen unterteilt ist, wobei jede Klasse einer anderen Niederschlagsbedingung entspricht;
    • 5 ein schematisches Blockdiagramm einer Ausführungsform eines Niederschlagserkennungsverfahrens gemäß der vorliegenden Erfindung ist;
    • 6 ein schematisches Blockdiagramm einer Ausführungsform eines Niederschlagserkennungsverfahrens gemäß der vorliegenden Erfindung ist; und
    • 7 ein schematisches Blockdiagramm einer zweiten alternativen Ausführungsform eines Niederschlagserkennungsverfahrens gemäß der vorliegenden Erfindung ist.
  • DETAILLIERTE BESCHREIBUNG
  • Es versteht sich ohne Weiteres, dass die Komponenten der vorliegenden Erfindung, wie sie hierin allgemein beschrieben und in den Figuren veranschaulicht sind, in einer großen Bandbreite unterschiedlicher Konfigurationen angeordnet und gestaltet sein können. Somit ist die folgende detailliertere Beschreibung der Ausführungsformen der Erfindung, wie sie in den Figuren dargestellt ist, nicht als den Geltungsumfang der beanspruchten Erfindung einschränkend, sondern als rein repräsentativ für bestimmte Beispiele von gegenwärtig in Erwägung gezogenen Ausführungsformen gemäß der Erfindung zu verstehen. Die gegenwärtig beschriebenen Ausführungsformen werden am besten unter Bezugnahme auf die Zeichnungen verstanden, wobei gleiche Teile durchgängig mit gleichen Bezugszeichen bezeichnet sind.
  • In Bezug auf 1 stellt die reale Welt eine Reihe von Bedingungen und Hindernissen dar, die sich beständig ändern,. Diese Realität erzeugt wesentliche Herausforderungen für fahrzeugbasierte Systeme, die eine autonome Steuerung bestimmter Fahrzeugfunktionen oder -dynamik und/oder autonomes Fahren bereitstellen. Um diese Herausforderungen zu überwinden, kann ein Fahrzeug 10 mit Sensoren ausgestattet sein, die Systemen davon ermöglichen, eine Umgebung und/oder die Auswirkungen der Umgebung auf das Fahrzeug 10 zu erfassen (und daher angemessen darauf zu reagieren). Darüber hinaus kann ein Fahrzeug 10 so mit einem vielfältigen Satz von Sensoren ausgestattet sein, dass die Schwäche oder „blinde Flecken“ von einem Sensor durch einen oder mehrere andere Sensoren abgedeckt oder verbessert werden können.
  • Beispielsweise kann ein System 12 gemäß der vorliegenden Erfindung einen oder mehrere Bildsensoren 14 beinhalten. Die Ausgabe solcher Sensoren 14 kann sehr nützlich bei der Klassifizierung von meteorologischem Niederschlag in einem Bereich um ein, oder in der Nähe eines Fahrzeugs 10 sein. Einer oder mehrere Bildsensoren 14 des Systems 12 können jedoch nicht alle Aspekte des meteorologischen Niederschlags kennzeichnen. Dementsprechend kann das System 12 einen oder mehrere andere Sensoren 16 beinhalten, die andere Aspekte von meteorologischem Niederschlag kennzeichnen. Durch die Verwendung der Daten von unterschiedlichen Arten von Sensoren 14, 16 kann ein System 12 gemäß der vorliegenden Erfindung robuster und genauer in seinen Klassifizierungen von meteorologischem Niederschlag sein.
  • In ausgewählten Ausführungsformen kann ein System 12 durch einen oder mehrere an Bord eines Fahrzeugs 10 getragene Bildsensoren 14 gesammelte oder erfasste Daten analysieren. Solche Bildsensoren 14 können eine oder mehrere Kameras, Lidar-Geräte, Radargeräte, Ultraschallabbildungsvorrichtungen oder dergleichen, oder Kombinationen oder Unterkombinationen davon beinhalten. Einer oder mehrere Bildsensoren 14 können vorwärts weisende Bildsensoren 14a, rückwärts weisende Bildsensoren 14b (z.°B. eine oder mehrere Rückfahrkameras), Fahrgastraum-Bildsensoren 14c (z.°B. eine oder mehrere Kameras, die einen Innenraum oder Fahrerblickpunkt und/oder durch eine Windschutzscheibe aufnehmen) oder dergleichen, oder eine Kombination oder Unterkombination davon sein.
  • In bestimmten Ausführungsformen können Lidar-, Kamera-, Radar, Ton- und vorherige Karten mit hoher Auflösung oder dergleichen von einem oder mehreren Bildsensoren 14 (z.°B. einer oder mehrere vorwärts weisende Bildsensoren 14a) fusioniert sein, um die Vorhersage der Niederschlagsintensität oder -rate zu ermöglichen sowie auch, wann eine entsprechende Sturmfront ein Fahrzeug 10 erreichen kann. Dies kann ein Feed-Forward-System aktivieren, das nicht warten muss, bis die Sicht eines Fahrers beeinträchtigt ist, sodass er einen oder mehrere Scheibenwischer einschaltet. Es kann auch eine bessere Schätzung der gewünschten Wischergeschwindigkeit bereitstellen. Alternativ oder zusätzlich dazu können Vorhersagen, wann eine entsprechende Sturmfront ein Fahrzeug 10 erreichen kann, zum Bereitstellen von Warnungen für einen entsprechenden Fahrer verwendet werden, und um für autonome Fahrzeuge einen Impuls zum Ändern einer Fahrtroute zugunsten einer oder mehrerer potenziell sichererer Routen bereitzustellen.
  • Die von einem oder mehreren Bildsensoren 14 erfassten (z.°B. Video) Bilddaten können durch ein System 12 als Einzelbilder oder Frames verarbeitet werden. Beispielsweise können einem künstlichen neuronalen Netz in einem System 12 durch einen oder mehrere Bildsensoren 14 erfasste Bilder oder Frames zugeführt werden. Dementsprechend kann das künstliche neuronale Netz solche Bilder oder Frames in Betracht ziehen, da es bestimmt, welche Klasse (z.°B. welche Niederschlagsbedingung einem geschlossenen Satz von Niederschlagsbedingungen entspricht) hierin dargestellt wird.
  • In ausgewählten Ausführungsformen kann ein künstliches neuronales Netz mit einem System 12 gemäß der vorliegenden Erfindung mehrere aufeinanderfolgende Bilder analysieren, die von einem Bildsensor 14 über einen kurzen Zeitraum (z.°B. mehrere Bilder, die über einen Zeitraum von wenigen Sekunden erfasst werden) erfasst werden. Wenn eine signifikante Mehrheit der Bilder eine erste Niederschlagsbedingung anzeigt (z.°B. Regen, der an oder nahe einer bestimmten Niederschlagsrate fällt), kann es wahrscheinlicher sein, dass ein System 12. das von der Analyse von Daten entsprechend einem oder mehreren anderen Sensoren 16 abhängig ist, bestimmt, dass die erste Niederschlagsbedingung 10 in der Umgebung des Fahrzeugs 10 vorhanden ist.
  • Andere, innerhalb des Systems 12 beinhaltete Sensoren 16 gemäß der vorliegenden Erfindung können einen oder mehrere Beschleunigungsmesser beinhalten (z.°B. einen oder mehrere Beschleunigungsmesser 16a, die zum Überwachen und Kennzeichnen von Vibrationen einer Windschutzscheibe eines Fahrzeugs 10 positioniert sind, die die Art und/oder Menge von meteorologischem Niederschlag angeben können, der auf das Fahrzeug 10 auftrifft), einer oder mehrere Antriebsstrangsensoren (z.°B. einer oder mehrere Sensoren 16b, die zum Überwachen und Kennzeichnen von Radschlupf, Reibungseingriff zwischen einem oder mehreren Reifen einer Fahrfläche oder dergleichen positioniert sind), einer oder mehrere Temperatursensoren (z.°B. einer oder mehrere Thermometer, die die Außentemperatur messen, die die Art des meteorologischen Niederschlags angibt, der auf das Fahrzeug 10 auftrifft), einer oder mehrere Drucksensoren (z.°B. einer oder mehrere Drucksensoren auf einer Windschutzscheibe, einem Fenster oder einer anderen Struktur eines Fahrzeugs 10 zum Überwachen oder Kennzeichnen der Windgeschwindigkeit, die verwendet werden kann, um eine bessere Handhabung von Fahrzeugen 10 bereitzustellen, die autonom sind), ein Tachometer oder dergleichen, oder eine Kombination oder Unterkombination davon. Dementsprechend kann ein künstliches neuronales Netz als eine Eingabe die von einem oder mehreren solcher Sensoren 16 abgeleiteten Signale oder Daten empfangen. Somit können die durch ein künstliches neuronales Netz hergestellten Klassifizierungen robust und präzise sein, da sie auf Daten basieren, die von einem oder mehreren Bildsensoren 14 und einem oder mehreren Nicht-Bildsensoren 16 gesammelt werden oder diesen entsprechen.
  • In bestimmten Ausführungsformen können die durch ein künstliches neuronales Netz ausgeführten Klassifizierungen in Echtzeit mit dem Erfassen der Sensordaten auftreten, worauf die Klassifizierung basiert. Das heißt, ein künstliches neuronales Netz kann die Übereinstimmung bestimmter Sensordaten (z.°B. Bilddaten, Beschleunigungssensordaten, Radschlupf oder Reibungsdaten, Temperaturdaten, Windgeschwindigkeitsdaten, Fahrzeuggeschwindigkeitsdaten oder dergleichen, oder eine Kombination oder Unterkombination davon) zu einer oder mehreren Klassen innerhalb einer sehr kurzen Zeit nach dem Erfassen der bestimmten Sensordaten von den bestimmten Sensoren 14, 16 quantifizieren, die einen Teil eines Systems 12 ausbilden. In ausgewählten Ausführungsformen kann der sehr kurze Zeitraum etwa 10 Sekunden oder weniger betragen.
  • In ausgewählten Ausführungsformen können Klassifizierungen oder Informationen, die Klassifizierungen kennzeichnen, von einem System 12 an Bord eines Fahrzeugs 10 an eine Hardware weitergeleitet oder übermittelt werden, die außerhalb des Fahrzeugs 10 positioniert ist. Das heißt, dass Klassifizierungsinformationen übergeben werden von Fahrzeug-zu-Fahrzeug (V2V), Fahrzeug-zu-Infrastruktur (V2I), Fahrzeug-zu-Allem (V2X) oder dergleichen, oder eine Kombination oder Unterkombination davon. Beispielsweise können durch ein System 12 an Bord eines Fahrzeugs 10a erzeugte Klassifizierungsinformationen zu einem oder mehreren Fahrzeugen 10b in der Nähe weitergeleitet werden. Dementsprechend können Klassifizierungen, die auf einem Fahrzeug 10a gemacht wurden (z.°B. ganz übernommen oder berücksichtigt), von Systemen 12 an Bord eines oder mehrerer anderer Fahrzeuge 10b verwendet werden.
  • In ausgewählten Ausführungsformen können Klassifizierungsinformationen direkt von einem Fahrzeug 10a an ein anderes Fahrzeug 10b (z.°B. über eine Funkübertragung) weitergeleitet 18 werden. Alternativ können Klassifizierungsinformationen möglicherweise durch ein System 12 an Bord eines Fahrzeugs 10a einem Kommunikationssystem 22 (z.°B. ein System 22, das eine stationäre Telekommunikations-Kommunikationsinfrastruktur umfasst) zugeführt 20 werden. Beispielsweise kann ein System 12 Klassifizierungsinformationen einem Mobiltelefonnetz durch Senden von einem oder mehreren Signalen zu einem nahe gelegenen Mobilfunkturm 24a zuführen 20. In ausgewählten Ausführungsformen können durch ein System 12 zugeführte 20 Klassifizierungsinformationen durch ein Kommunikationssystem 22 geleitet, und entsprechenden Systemen 12 von einem oder mehreren anderen Fahrzeugen 10b zugeführt werden. Alternativ können einem Kommunikationssystem 22 durch ein System 12 zugeführte 20 Klassifizierungsinformationen einem Computersystem 30 zugeführt 28 werden, durch das Computersystem 30 verarbeitet werden, durch das Computersystem 30 erneut dem Kommunikationssystem 22 zugeführt 32 werden, und entsprechenden Systemen 12 von einem oder mehreren anderen Fahrzeugen 10b zugeführt 26 werden.
  • Beispielsweise kann in ausgewählten Ausführungsformen ein Kommunikationssystem 18 ein Mobiltelefonnetz beinhalten, das einen ersten Mobilfunkturm 24a umfasst, der in der Nähe eines ersten Fahrzeugs 10a positioniert ist, einen zweiten Mobilfunkturm 24b, der in der Nähe eines zweiten Fahrzeugs 10b positioniert ist, und ein Netz 34, das den ersten Mobilfunkturm 24b mit dem zweiten Mobilfunkturm 24b verbindet. Ein Computersystem 30 kann auch mit dem Netz 34 verbunden sein. Dementsprechend können Klassifizierungsinformationen 20, die durch ein System 12 dem Mobiltelefonnetz zugeführt 20 werden, das dem ersten Fahrzeug 10a entspricht, möglicherweise durch das Computersystem 30 empfangen werden, sodass sie aufgezeichnet, verarbeitet, auf eines oder mehrere andere Fahrzeuge 10b verteilt werden können, oder dergleichen oder eine Kombination oder Unterkombination davon.
  • In ausgewählten Ausführungsformen kann die durch ein System 12 gemäß der vorliegenden Erfindung ausgeführte Klassifizierung agnostisch gegenüber einem bestimmten Merkmal sein, das in dem einen oder den mehreren Bildern enthalten ist, die von einem Bildsensor 14 erfasst werden, oder Sensordaten, die von einem oder mehreren anderen Sensoren 16 erfasst werden. Das heißt, dass ein künstliches neuronales Netz innerhalb eines Systems 12 nicht Daten entsprechend den unterschiedlichen Sensoren 14, 16 für ein bestimmtes Merkmal suchen kann. Vielmehr kann ein künstliches neuronales Netz beurteilen, ob die dadurch empfangenen Sensordaten als Ganzes genommen bezeichnender für eine Klasse oder eine andere sind.
  • Dieser Agnostizismus eines Systems 12 gemäß der vorliegenden Erfindung kann erhebliche Vorteile bieten. Beispielsweise kann jedes Bild in seinem „Ist“-Zustand geprüft oder analysiert werden. Das heißt, dass möglicherweise kein Bedarf für eine Bildvorverarbeitung für ein System 12 besteht, damit es korrekt funktioniert. Ferner ist nicht zwangsläufig eine zusätzliche Kalibrierung erforderlich. Zudem kann ein künstliches neuronales Netz eines oder mehrere Bilder in seinem Klassifizierungsverfahren ohne Rücksicht darauf verwenden, ob ein Bildsensor 14, der das eine oder die mehreren Bilder erfasst hat, an einer exakten Stelle fixiert war, mehr zum Himmel zeigte, mehr zur Straße zeigte, mehr nach vorn zeigte, mehr nach hinten zeigte oder dergleichen.
  • Unter Bezugnahme auf 2 kann ein System 12 gemäß der vorliegenden Erfindung die Klassifizierung von meteorologischem Niederschlag unter Verwendung von tiefem Lernen beinhalten oder unterstützen. Ein System 12 kann dies in jeder geeigneten Weise erreichen. Beispielsweise kann ein System 12 als Hardware, Software oder eine Kombination davon ausgeführt sein.
  • In ausgewählten Ausführungsformen kann ein System 12 Computer-Hardware und Computer-Software beinhalten. Die Computer-Hardware eines Systems 12 kann einen oder mehrere Prozessoren 36, einen Speicher 38, eine oder mehrere Benutzerschnittstellen 40, andere Hardware 42 oder Ähnliches oder eine Kombination oder Unterkombination davon beinhalten. In bestimmten Ausführungsformen können alle oder einige Untergruppen dieser Computer-Hardware Hardware sein, die bereits als Teil eines Fahrzeugs 10 beinhaltet ist. Das heißt, dass die Gesamtheit oder ein Teil der Computer-Hardware multifunktionell sein, und Aufgaben ausführen kann, die bereits dem Betrieb des Fahrzeugs 10 zugeordnet sind.
  • Der Speicher 38 eines Systems 12 gemäß der vorliegenden Erfindung kann betriebsfähig mit dem einen oder den mehreren Prozessoren 36 verbunden sein, und die Computer-Software speichern. Dies kann den einen oder die mehreren Prozessoren 36 dazu befähigen, die Computer-Software auszuführen. So kann ein System 12 die Funktionalität oder die Merkmale eines Fahrzeugs 10 durch Hinzufügen und/oder Ändern von Software, Hinzufügen von zusätzlicher Software zu dem Fahrzeug 10 oder eine Kombination davon erweitern.
  • Eine Benutzerschnittstelle 40 eines Systems 12 kann einen Ingenieur, einen Techniker, Fahrer oder dergleichen dazu befähigen, mit unterschiedlichen Aspekten eines Systems 12 zu interagieren, sie auszuführen, anzupassen oder sie zu steuern. In ausgewählten Ausführungsformen kann eine Benutzerschnittstelle 40 eines Systems 12 eines/eine/ein oder mehrere Tastenfelder, Tastaturen, Touchscreens, Zeigevorrichtungen oder Ähnliches, oder eine Kombination oder Unterkombination davon beinhalten. Alternativ oder zusätzlich dazu kann eine Benutzeroberfläche 40 einen Anschluss umfassen, durch den der eine oder die mehreren externen Computer mit einem System 12 kommunizieren können, oder eine oder mehrere Komponenten davon.
  • In ausgewählten Ausführungsformen kann der Speicher 38 eines Systems 12 (mindestens zeitweise) Sensordaten 44 (z.°B. eines oder mehrere Segmente der Signalausgabe von einem oder mehreren Sensoren 16, die an Bord eines Fahrzeugs 10 getragen werden), Video 46 (z.°B. eine oder mehrere Videodateien 46), die von einem oder mehreren Bildsensoren 14 gesammelt werden, die an Bord eines Fahrzeugs 10 getragen werden, eine oder mehrere Bilddateien 48, die eines oder mehrere Bilder enthalten, definieren oder diesen entsprechen, die von einem oder mehreren Bildsensoren 14 erfasst oder von einem Video extrahiert werden, das von einem oder mehreren Bildsensoren 14 oder dergleichen erfasst wird, oder eine Kombination oder Unterkombination davon.
  • Zusätzlich kann der Speicher 38 eines oder mehrere Software-Module speichern. Beispielsweise kann der Speicher 38 ein Filtermodul 50, Kommunikationsmodul 52, Bildextraktionsmodul 54, neuronales Netzmodul 56, Rückmeldemodul 58, andere Daten oder Software 60, oder dergleichen oder eine Kombination oder Unterkombinationen davon sein. Alternativ können eines oder mehrere von dem Filtermodul 50, Kommunikationsmodul 52, Bildextraktionsmodul 54, neuronalen Netzmodul 56 und Rückmeldemodul 58 als Hardware ausgeführt sein oder Hardware-Komponenten umfassen. Somit können, obwohl 2 das Filtermodul 50, Kommunikationsmodul 52, Bildextraktionsmodul 54, das neuronale Netzmodul 56 und das Rückmeldemodul 58 als reines Software-Modul darstellt, in der Tat eines oder mehrere dieser Module 50, 53, 54, 56, 58, die im Speicher 38 gespeichert sind, Hardware, Software oder eine Kombination davon umfassen.
  • Ein Filtermodul 50 kann einem System 12 das Filtern von Signalausgaben durch einen oder mehrere Sensoren 14, 16 je nach Wunsch oder Notwendigkeit ermöglichen. Beispielsweise kann die Signalausgabe von einem Beschleunigungsmesser 16a, der die Vibrationen einer Windschutzscheibe überwacht, laut sein. Dementsprechend kann das Filtermodul 50 das Signal filtern, um die Extraktion nützlicher Daten davon zu erleichtern. In ausgewählten Ausführungsformen kann ein Filtermodul 50 einen Tiefpassfilter die Signalausgabe von einem oder mehreren Beschleunigungsmessern (z.°B. einer oder mehrere Beschleunigungsmesser 16a, die auf einer Windschutzscheibe montiert sind und/oder die Vibrationen der Windschutzscheibe überwachen) zum Lokalisieren und Trennen der Variation bei Vibrationen anwenden, die durch meteorologische Niederschläge verursacht sind, die auf das entsprechende Fahrzeug 10 auftreffen.
  • Ein Kommunikationsmodul 52 kann es Daten, wie z.°B. einem oder mehreren Segmenten der Sensordaten 44, Videodateien 46, Bilddateien 48, Software-Komponenten (z.°B. eines oder mehrere Module 50, 52, 554, 56, 58 oder Updates dazu), Klassifizierungen (z.°B. Klassifizierungsinformationsausgaben durch das künstliche neuronale Netz eines Systems 12) oder dergleichen, oder Kombinationen von Unterkombinationen davon, in ein System 12 gemäß der vorliegenden Erfindung hinein oder daraus heraus weitergeleitet zu werden (z.°B. weiterzuleiten 18, 20, 26 mittels Funkwellen). Beispielsweise kann ein Kommunikationsmodul 52, das Teil eines an Bord eines Fahrzeugs 10b getragenen Systems 12 ist, ermöglichen, dass das System 12 von einem anderen Fahrzeug 10a erzeugte Klassifizierungsinformationen empfängt. Alternativ oder zusätzlich dazu kann ein Kommunikationsmodul 52 einem System 12 ermöglichen, eine Aktualisierung für sein neuronales Netzmodul 56 zu empfangen. Dementsprechend können außerhalb eines Fahrzeugs 10 entwickelte Verbesserungen an Bord gebracht werden, wie gewünscht oder notwendig.
  • Ein Bildextraktionsmodul 54 kann eines oder mehrere Bilder von Videos extrahieren, die von einem oder mehreren Bildsensoren 14 erfasst werden. Beispielsweise kann ein Bildextraktionsmodul 54 eines oder mehrere Bilder (z.°B. mehrere Bilder, die über einen Zeitraum von einigen Sekunden oder weniger erfasst werden) von einer Videodatei 46 extrahieren, die im Speicher 38 gespeichert ist, von einem Video, das von einem Bildsensor 14 ausgegeben wird, oder dergleichen. In ausgewählten Ausführungsformen kann ein Bildextraktionsmodul 54 eines oder mehrere Bilder speichern, die dadurch als Bilddateien 48 im Speicher 38 extrahiert werden.
  • Ein neuronales Netzmodul 56 kann ein künstliches neuronales Netz beinhalten oder unterstützen, das programmiert ist, um tiefes Lernen auszuführen oder anzuwenden. Das durch ein künstliches neuronales Netz ausgeführte oder angewandte tiefe Lernen kann einen oder mehrere Algorithmen verwenden, um Abstraktionen auf hoher Ebene in Daten entsprechend einem oder mehreren Bildern, anderen Sensordaten und/oder Kombinationen davon zu modellieren, die von den unterschiedlichen Sensoren 14, 16 eines Systems 12 gemäß der vorliegenden Erfindung gesammelt werden. In ausgewählten Ausführungsformen kann dies durch Verwenden mehrerer Verarbeitungsschichten erfolgen, die nichtlineare Transformationen umfassen.
  • Beispielsweise kann ein künstliches neuronales Netz, das einem neuronalen Netzmodul 56 entspricht, aufgeschaltete algorithmische Graphen mit Eingabeknoten, verborgenen Schichten und Ausgabeknoten umfassen. Nach Klassifizierungen, die Bilder beinhalten, können Pixelwerte eines eingegebenen Bildes, das einen Teil der Klassifizierung ausbildet, Eingabeknoten zugewiesen werden, und dann durch das Netz zugeführt werden, wobei eine Anzahl von nichtlinearen Transformationen durchlaufen wird. Am Ende der Berechnung ergeben die Ausgangsknoten einen Wert, der der Klasse entspricht, die von dem neuronalen Netz gefolgert wird.
  • Damit ein künstliches neuronales Netz, das einem neuronalen Netzmodul 56 entspricht, zwischen unterschiedlichen Klassen von meteorologischem Niederschlag unterscheiden kann, muss es basierend auf Beispielen trainiert werden. Dementsprechend muss zum Erstellen eines neuronalen Netzes, das in der Lage ist, eine Vielzahl von unterschiedlichen Arten und/oder Ebenen des meteorologischen Niederschlags zu klassifizieren, eine große Sammlung von beispielhaften Bildern und anderen Sensordaten (z.°B. Hunderte bis Tausende für jede Art und/oder jedes Niveau) verwendet werden, die bekannte (z.°B. gekennzeichnete) Niederschlagsbedingungen als Trainingsdaten aufweisen. So kann unter Verwendung von Zurückverteilung ein neuronales Netz trainiert werden.
  • Einmal trainiert, kann ein neuronales Netz, das einem neuronalen Netzmodul 56 entspricht, eine oder mehrere Eingaben (z.°B. Datenausgabe von, oder entsprechend einem oder mehreren Sensoren 14, 16) empfangen und diese Eingaben dahingehend klassifizieren, dass sie eine bestimmte numerische Affinität (z.°B. Prozentsatz „Punktzahl“) für jede Klasse aufweisen, für die das künstliche neuronale Netz trainiert wurde. Dementsprechend, wenn ein neuronales Netz auf zwanzig unterschiedliche Klassen von meteorologischem Niederschlag trainiert wird, dann kann das künstliche neuronale Netz zwanzig numerische Punktzahlen für eine oder mehrere Eingaben ausgeben. Jede dieser Punktzahlen kann bezeichnend für die Affinität der einen oder mehreren Eingaben (oder der physischen Realität sein, die durch eine oder mehrere Eingaben widergespiegelt wird) zu einer anderen Klasse von meteorologischem Niederschlag sein.
  • In einer entscheidenden oder klaren Klassifizierung können eine oder mehrere Eingaben eine starke Affinität zu einer Klasse von meteorologischem Niederschlag und schwache Affinität gegenüber allen anderen Klassen von meteorologischem Niederschlag zeigen. Bei einer nicht entscheidenden oder unklaren Klassifizierung können eine oder mehrere Eingaben keine bevorzugte Affinität gegenüber einer bestimmten Klasse von meteorologischem Niederschlag zeigen. Beispielsweise kann eine „Spitzen“-Punktzahl für eine bestimmte Klasse vorhanden sein, aber das Ergebnis kann in der Nähe von anderen Punktzahlen für andere Klassen liegen.
  • Dementsprechend kann ein neuronales Netzmodul 56 in ausgewählten Ausführungsformen einen oder mehrere Schwellenwertvergleiche oder Tests anwenden, um zu bestimmen, ob eine bestimmte Klassifizierung ausreichend entscheidend oder klar ist, damit darauf reagiert oder gebaut werden kann (z.°B. ob die Klassifizierung ausreichend entscheidend oder klar ist, um einige Funktionen eines Fahrzeugs 10 zur besseren Vorbereitung des Fahrzeugs 10 zur Bekämpfung der Auswirkungen des vorhergesagten oder wahrgenommenen meteorologischen Niederschlags zu verändern). Beispielsweise kann ein neuronales Netzmodul 56 eine Klassifizierung testen, um zu sehen, ob die Trennung zwischen einer Spitzenpunktzahl und allen anderen Punktzahlen einen bestimmten Trennungsschwellenwert erfüllt.
  • In bestimmten Ausführungsformen kann ein sich ausbildendes künstliches neuronales Netz, das unterstützt wird durch, oder in einem neuronalen Netzmodul 56 beinhaltet ist, an Bord eines Fahrzeugs 10 in einem Trainingsmodus oder einem Implementierungsmodus arbeiten. Im Trainingsmodus kann das künstliche neuronale Netz mit mehreren Trainingsbildern oder Sensordaten trainieren, die bekannten Klassen von meteorologischem Niederschlag entsprechen. Im Implementierungsmodus kann das künstliche neuronale Netz Bilddaten von einem oder mehreren Bildsensoren 14 (z.°B. ein einzelnes Bild, mehrere Bilder oder mehrere aufeinanderfolgende Bilder, die aus von einer Kamera aufgenommenen Videos extrahiert werden) und/oder Sensordaten analysieren, die durch einen oder mehrere Sensoren 16 erzeugt werden oder diesen entsprechen, um eine entsprechende Umgebung, die ein Fahrzeug 10 umgibt, dahingehend zu klassifizieren, dass sie sich in einer Niederschlagsbedingung oder einer anderen für einen Zeitraum befindet (z.°B. bis ein Bild und/oder Sensordaten klassifiziert werden, oder über einen Zeitraum von etwa 1 Sekunde, 3 Sekunden, 5 Sekunden, 10 Sekunden oder dergleichen).
  • Dementsprechend kann ein neuronales Netz, das einem neuronalen Netzmodul 56 entspricht, trainiert werden, während es innerhalb oder auf der Hardware eines Systems 12 betrieben wird, die an Bord als Teil der Ausrüstung von einem Serienfahrzeug 10 serienmäßig oder optional getragen wird. Alternativ kann ein neuronales Netz, das einem neuronalen Netzmodul 56 entspricht, während des Betriebs innerhalb oder auf der Hardware eines Nicht-Produktionssystems 12 (z.°B. ein bordexternes System 12 in einem Computerlabor, einem Nicht-Produktionssystem 12, das an Bord eines Versuchsfahrzeugs 10 speziell für die Zwecke des Trainings ausgeführt wird, und dergleichen), dann „geklont“ oder anderweitig kopiert oder in ein Produktionssystem 12 importiert werden, das einen Teil eines Serienfahrzeugs 10 ausbildet.
  • In bestimmten Ausführungsformen kann ein neuronales Netzmodul 56 ein einzelnes künstliches neuronales Allzwecknetz beinhalten oder unterstützen. Das künstliche neuronale Allzwecknetz kann alle verfügbaren oder gewünschten Eingaben (z.°B. alle Daten von Bildsensoren 14 und anderen Nicht-Bildsensoren 16) und Ausgaben aller Affinitätspunktzahlen für alle unterschiedlichen Klassen von meteorologischen Niederschlägen empfangen. In anderen Ausführungsformen kann jedoch ein neuronales Netzmodul 56 mehrere jobspezifische künstliche neuronale Netze oder eines oder mehrere künstliche neuronale Netze umfassen, beinhalten oder unterstützen, die weniger als alle verfügbaren Eingaben verarbeiten. Beispielsweise kann in bestimmten Ausführungsformen ein erstes bildspezifisches künstliches neuronales Netz Bilddaten entsprechend einem oder mehreren Bildsensoren 14 klassifizieren, während eines oder mehrere andere Verarbeitungssysteme oder Verfahren auf Beschleunigungsmesserdaten und/oder Daten von einem oder mehreren anderen Sensoren 16 angewandt werden können. So kann der Vorgang der Analyse und Klassifizierung durch ein neuronales Netzmodul 56 unter einem oder mehreren künstlichen neuronalen Netzen, anderen Verarbeitungs- oder Analysesystemen oder Kombinationen davon aufgeteilt werden.
  • In ausgewählten Ausführungsformen kann ein Rückmeldemodul 58 innerhalb eines Systems 12 beinhaltet sein, um das Trainieren eines neuronalen Netzes, das einem neuronalen Netzmodul 56 entspricht, an Bord zu unterstützen oder zu ermöglichen. Ein Rückmeldemodul 58 kann Informationen für ein neuronales Netzmodul 56 bereitstellen, die angeben, welche Klasse oder Bedingung welchen Sensordaten entspricht. Daher kann ein Rückmeldemodul 58 einem System 12 ermöglichen, Trainingsdaten zum Trainieren (oder Verbessern des Trainings) eines entsprechenden künstlichen neuronalen Netzes zu verbessern.
  • Das heißt, dass zum Trainieren eines künstlichen neuronalen Netzes Trainingsdaten einer bekannten Klasse durch das künstliche neuronale Netz analysiert werden. Es kann nicht genügend für ein System 12 sein, wenn Sensordaten von einem oder mehreren integrierten Sensoren 14, 16 an Bord gesammelt werden. Das System 12 muss möglicherweise auch wissen, welche dieser Sensordaten einer Klasse entsprechen und welche einer anderen entsprechen. Diese zusätzlichen Informationen können von einem Rückmeldemodul 58 gesammelt und bereitgestellt werden.
  • Beispielsweise kann ein Rückmeldemodul 58 bemerken, wenn ein menschlicher Fahrer die Scheibenwischer einschaltet, da dies einen Regenzustand angeben kann. Dementsprechend können Sensordaten an oder in der Nähe einer Zeit gesammelt oder erfasst werden, wenn es von einem Fahrer „bekannt“ sein kann, dass er die Scheibenwischer eingeschaltet hat, um einem Regenzustand zu entsprechen. Auf ähnliche Weise kann ein Rückmeldemodul 58 bemerken, wenn ein menschlicher Fahrer einen Strahl von Windschutzscheibenwaschfluid aktiviert, da dies einen Straßenspritzwasserzustand angeben kann. Dementsprechend können Sensordaten, die an oder in der Nähe einer Zeit gesammelt oder erfasst wurden, wenn der Strahl des Windschutzscheibenwaschfluids von einem Fahrer eingeschaltet wurde, „bekannt“ dafür sein, dass sie einem Straßenspritzwasserzustand entsprechen.“
  • In ausgewählten Ausführungsformen können mehrere Funktionen oder Fakten von einem Rückmeldemodul 58 überwacht werden, um Informationen zu sammeln, die einen aktuellen Zustand angeben. Beispielsweise kann anstatt nur festzustellen, wenn ein Fahrer die Scheibenwischer einschaltet, ein Rückmeldemodul 58 bemerken, wenn der Fahrer die Scheibenwischer einschaltet, ohne die Strahlen des Windschutzscheibenwaschfluids ebenfalls zu aktivieren. Letzteres kann Regen in der Umgebung um ein Fahrzeug 10 genauer als das erstere zugeordnet werden.
  • Andere Daten und/oder Software 60, die einem System 12 entsprechen, können den Betrieb dieses Systems 12 wie gewünscht oder notwendig unterstützen. In bestimmten Ausführungsformen kann andere Software 60 ein Steuermodul beinhalten, um eine oder mehrere Maßnahmen oder Funktionen basierend auf den durch ein neuronales Netzmodul 56 bestimmten Klassifikationen anzufordern, zu initiieren oder zu implementieren. Wenn beispielsweise ein neuronales Netzmodul 56 basierend auf bestimmten Sensordaten bestimmt, dass es bei einer bestimmten Niederschlagsrate regnet, kann ein Steuermodul Änderungen wie beispielsweise das Aktivieren bestimmter Wischerblätter oder Leuchten, Ändern (z.°B. Erhöhen oder Verringern) einer Geschwindigkeit von bestimmten Wischerblättern anfordern, initiieren oder implementieren, bestimmte Traktionssteuerungseinstellungen ändern oder auf andere Art ein entsprechendes Fahrzeug 10 darauf vorbereiten, mit Problemen mit dieser bestimmten Regenbedingung umzugehen.
  • Mit Bezug auf 3 kann ein bordexternes System 12 in einem Computerlabor, ein Nicht-Produktionssystem 12, das speziell für die Zwecke des Trainings an Bord eines Testfahrzeugs 10 getragen wird, oder dergleichen, einen Trainingsprozess 62 gemäß der vorliegenden Erfindung unterstützen, ermöglichen oder ausführen. In ausgewählten Ausführungsformen kann ein solcher Prozess 62 mit dem Empfangen 64a, 64b von Bilddaten (z.°B. Bildern oder dergleichen, die zu einem oder mehreren Bildsensoren 14 passen, oder modellieren, was dadurch gesammelt oder diesen entsprechen würde) und anderen Sensordaten (z.°B. Beschleunigungsmesserdaten, Radschlupf- oder Reibungsdaten, Temperaturdaten, Windgeschwindigkeitsdaten, Fahrzeuggeschwindigkeitsdaten oder dergleichen, oder eine Kombination oder Unterkombination davon, entsprechen, d.°h. zu einem oder mehreren anderen Sensoren 16 passen oder diesen entsprechen), von denen bekannt ist, dass sie einer ersten Niederschlagsbedingung entsprechen. Dies kann für unterschiedliche andere Niederschlagsbedingungen von Interesse wiederholt werden. Somit kann der Prozess 62 weiterhin mit dem Empfangen 66a, 66b von Bilddaten und anderen bekannten Sensordaten fortfahren, von denen bekannt ist, dass sie einer zweiten Niederschlagsbedingung entsprechen, Empfangen 68a, 68b von Bilddaten und anderen Sensordaten, von denen bekannt ist, dass sie einer dritten Niederschlagsbedingung entsprechen, usw., bis Bild- und Sensordaten, von denen bekannt ist, dass sie einer „N-ten“ (d.°h. finalen) Niederschlagsbedingung entsprechen, empfangen 70a, 70b werden.
  • Jede andere Niederschlagsbedingung kann einer anderen Klasse von meteorologischem Niederschlag entsprechen oder sein. Daher kann ein Prozess 62 das Empfangen von Bild- und anderen Sensordaten umfassen, die jeder Klasse von meteorologischem Niederschlag entsprechen, der klassifiziert werden soll. Ein künstliches neuronales Netz (z.°B. ein einzelnes künstliches neuronales Allzwecknetz oder eines oder mehrere datenspezifische neuronale Netze) können dann auf den empfangenen Bild- und/oder zweiten Daten trainieren 72.
  • Eines oder mehrere trainierte künstliche neuronale Netze (z.°B. eines oder mehrere künstliche neuronale Netze, die einen Satz von Klassifizierungsalgorithmen umfassen, die sich bei der Klassifizierung von meteorologischem Niederschlag basierend auf den Bild- und/oder anderen Sensordaten als wirksam erwiesen haben, können dann an ein Bordcomputersystem 12 eines Fahrzeugs 10 weitergeleitet 74 (z.°B. darauf gespeichert) werden. Das trainierte künstliche neuronale Netz oder die Netze 76 können dann diesen entsprechende Klassifizierungsalgorithmen auf Bild- und/oder andere Sensordaten anwenden, die durch einen und/oder mehrere Bild- und/oder andere Sensoren 14, 16 erfasst werden, die an Bord des Fahrzeugs 10 getragen werden.
  • Unter Bezugnahme auf 4 kann in ausgewählten Ausführungsformen ein künstliches neuronales Netz gemäß der vorliegenden Erfindung trainiert werden, um einen gewissen vorbestimmten Satz 78 von Klassen 80 von meteorologischem Niederschlag (z.°B. Affinitätspunktzahlen dafür erzeugen) zu erkennen. Die Anzahl von Klassen 80 innerhalb eines solchen Satzes 78 kann zwischen den Ausführungsformen variieren. In bestimmten Ausführungsformen kann die Anzahl von Klassen 80 relativ klein sein. Beispielsweise kann ein Satz 78 von Klassen 80 aus nur zwei Klassen 80 (z.°B. eine erste Klasse 80, die keinem Niederschlag oder unzureichendem Niederschlag oder Niederschlagseffekten entspricht, für die es sich lohnt, die Windschutzscheibenwischer einzuschalten, und einer zweiten Klasse 80, die ausreichendem Niederschlag oder Niederschlagseffekten entspricht, für die es sich lohnt, die Windschutzscheibenwischer einzuschalten) bestehen.
  • In anderen Ausführungsformen kann die Anzahl von Klassen 80 in einem Satz 78 wesentlich mehr sein. Beispielsweise kann eine erste Klasse 80a von meteorologischem Niederschlag innerhalb eines bestimmten Satzes 78 keinem nachweisbaren Niederschlag oder nicht nachweisbaren Niederschlagseffekten jeglicher Art entsprechen. Andere Klassen 80 von meteorologischem Niederschlag innerhalb dieses Satzes 78 können dann unterschiedlichen Paarungen von Niederschlagsart und Niederschlagsrate entsprechen. Diese Paarungen können somit spezifische Niederschlagsbedingungen definieren.
  • Beispielsweise kann eine erste Niederschlagsart Regen sein. Dementsprechend kann eine zweite Klasse 80b innerhalb des Satzes 78 Regen entsprechen, der im Bereich zwischen etwa 0 Zoll pro Stunde bis etwa 0,5 Zoll pro Stunde fällt. Eine dritte Klasse 80c innerhalb des Satzes 78 kann Regen entsprechen, der im Bereich zwischen etwa 0,5 Zoll pro Stunde bis etwa 2 Zoll pro Stunde fällt. Eine vierte Klasse 80d innerhalb des Satzes 78 kann Regen entsprechen, der mit etwa 2 Zoll pro Stunde oder mehr fällt. Auf diese Weise können unterschiedliche Paarungen von Niederschlagsart und Niederschlagsrate (z.°B. Bereiche von Niederschlagsraten) unterschiedliche Klassen 80 von meteorologischem Niederschlag definieren. Die Trennlinien zwischen den unterschiedlichen Niederschlagsraten können zwischen unterschiedlichen Arten von Niederschlag und unterschiedlichen Ausführungsformen variieren. Daher sind die spezifischen Ratenbereiche oben beispielhaft, und nicht mittels Einschränkung dargestellt.
  • Die Arten von Niederschlag oder Niederschlagseffekten, wofür Klassen 80 definiert werden können, können Regen, Schneeregen, Hagel, Schnee, Straßenspritzwasser oder dergleichen, oder eine beliebige Kombination oder Unterkombination davon beinhalten. Wie oben erwähnt, können diese Arten von Niederschlag oder Niederschlagseffekten mit bestimmten Frequenzbereichen gepaart werden, um spezifische Niederschlagsbedingungen zu definieren. Bei bestimmten Ausführungsformen kann die Akkumulationsrate weniger wichtig als andere Eigenschaften sein. Dementsprechend können in solchen Ausführungsformen Klassen 80 basierend auf diesen anderen Merkmalen, anstatt durch die Akkumulationsrate definiert werden.
  • Beispielsweise kann in ausgewählten Ausführungsformen eine „N-te“ Niederschlagsart Hagel sein. Für Hagel kann die Dynamik des Hagels wichtiger als die Akkumulationsrate sein. Dementsprechend können unterschiedliche Klassen 80e, 80f für Hagel in Bezug auf die Dynamik definiert werden. Somit kann Hagel, der auf ein Fahrzeug 10 mit weniger als einer gewissen Dynamik auftrifft (z.°B. eine Dynamik, die unzureichend ist, um das Fahrzeug 10 einzubeulen oder anderweitig zu beschädigen), als eine Klasse 80e betrachtet werden, während Hagel, der auf das Fahrzeug 10 mit mehr als einer gewissen Dynamik auftrifft (z.°B. eine Dynamik, die ausreichend ist, um das Fahrzeug 10 einzubeulen oder anderweitig zu beschädigen), als eine andere Klasse 80f in Betracht gezogen werden kann. Eine solche Organisation von Klassen 80e, 80f kann einem System 12 ermöglichen, Maßnahmen zu ergreifen, Warnungen bereitzustellen (z.°B. für den Fahrer des betreffenden Fahrzeugs 10a oder für Fahrer von in der Nähe befindlichen Fahrzeugen 10b) oder dergleichen, die den entstandenen Schaden oder erlebten Schaden verringern.
  • Unter Bezugnahme auf 5 kann in ausgewählten Ausführungsformen das Anwenden 76 der Klassifizierungsalgorithmen eines künstlichen neuronalen Netzes auf Bild- oder eine andere Sensordaten mit dem Erhalten 82 eines oder mehrerer nicht klassifizierter Bilder beginnen, und Erhalten 84 anderer nicht klassifizierter Sensordaten, die zu dem gleichen Zeitraum gehören (z.°B. Die alle in oder in der Nähe davon gesammelt werden). Das so erhaltene eine oder die mehreren unklassifizierten Bilder und anderen unklassifizierten Sensordaten können als die „Eingabedaten“ in Betracht gezogen werden. Dementsprechend können die Eingabedaten einem künstlichen neuronalen Netz 86 zugeführt werden, das Affinitätspunktzahlen (z.°B. Vertrauensprozentsätze) für jede Klasse 80 eines entsprechenden Satzes 78 erzeugt.
  • Wenn beispielsweise ein künstliches neuronales Netz trainiert wurde, um zwischen zwei Klassen 80 (z.°B. eine Niederschlagsbedingung und eine Kein-Niederschlag-Bedingung) zu differenzieren, dann kann das künstliche neuronale Netz 86 zwei Affinitätspunktzahlen erzeugen 86. Genauer gesagt kann das künstliche neuronale Netz einen ersten Prozentsatz ausgeben, der das Vertrauen angibt, dass die Eingabedaten einer ersten Klasse 80 entsprechen, und einen zweiten Prozentsatz. der das Vertrauen angibt, dass die Eingabedaten 80 einer zweiten Klasse 80 entsprechen.
  • Danach kann eine Bestimmung erfolgen 88, ob einer oder mehrere anwendbare Schwellenwerte erreicht wurden. Das heißt, abhängig von der Größenordnung der unterschiedlichen Affinitätspunktzahlen (z.°B., ob der prozentuale Anteil für eine Klasse 80 über einem bestimmten Schwellenwert liegt, die Prozentsätze für alle anderen Klassen 80 unterhalb eines bestimmten Schwellenwerts liegen, oder beides), kann die Differenz zwischen den unterschiedlichen Affinitätspunktzahlen (z.°B., ob die Differenz oder die Trennung zwischen dem Prozentsatz für eine Klasse 80 und die Prozentsätze für alle anderen Klassen 80 über einem bestimmten Schwellenwert liegt), oder dergleichen, oder einer Kombination davon, können die entsprechenden Eingabedaten als eine Klasse oder Zustand oder die/der andere klassifiziert werden.
  • Beispielsweise kann in einem einfachsten Fall ein Schwellenwert auf „50%“ gesetzt werden. Dementsprechend kann in einer Zweiklassensituation (z.°B. Niederschlag oder kein Niederschlag), wenn eine Klasse 80 einen Zähler aufweist, der höher als der andere ist, der Schwellenwert erreicht werden. Alternativ kann ein Schwellenwert auf etwas mehr als 50% eingestellt werden (z.°B. irgendwo im Bereich von etwa 55% bis etwa 85%). In solchen Ausführungsformen oder Situationen kann eine Gesamtbestimmung 88, ob eine Umgebung eine Klasse 80 angibt, nicht dadurch gelöst werden, welche Klasse 80 oder Bedingung die höchste Affinitätspunktzahl aufweist. Vielmehr kann der Schwellenwert, wie eine höhere Beweislast in einem Gerichtsverfahren sicherstellen, dass eine Klassifizierung eine Klasse 80 gegenüber allen anderen nicht nur begünstigt, sondern deutlich oder stark begünstigt. Dementsprechend können einer oder mehrere Schwellenwerte 80 eingestellt werden, um die Anzahl von falschen Positiven im Verhältnis zu einer oder mehreren Klassen 80 abzusenken.
  • Wenn eine Bestimmung 88 angibt, dass eine erste Klasse 80a oder eine „Kein-Niederschlag- oder Niederschlagseffekte-“ Bedingung vorhanden ist, kann ein neuronales Netzmodul 56 oder künstliches neuronales Netz davon erklären 90, dass eine Kein-Niederschlag- oder Niederschlagseffektebedingung (z.°B. Kein-Regen-Bedingung) vorhanden ist, und ein System 12 kann eine oder mehrere Maßnahmen ergreifen 92, die dieser Bedingung entsprechen.
  • Solche Maßnahmen können das Belassen eines Fahrzeugs 10 wie es ist, Deaktivieren bestimmter Wischerblätter oder Leuchten, Ändern bestimmter Traktionssteuerungseinstellungen oder auf andere Weise Vorbereiten eines entsprechendes Fahrzeugs 10 darauf, in einen „normalen“ Betriebszustand zurückzukehren, der keinem Niederschlag oder Niederschlagseffekten entspricht, beinhalten. Ein System 12 kann auch in eine Warteschleife eintreten und einige Zeit warten (z.°B. 10 Sekunden, 30 Sekunden, 1 Minute, 5 Minuten, 10 Minuten oder dergleichen), bevor neue Eingabedaten erhalten 82, 84 werden, und den Klassifizierungsprozess erneut starten.
  • Umgekehrt, wenn eine Bestimmung 88 angibt, dass eine andere Klasse 80 oder Niederschlagsbedingung innerhalb eines bestimmten Satzes 78 (z.°B. Regen, der mit zwischen etwa 0,5 und etwa 2 Zoll pro Stunde fällt) vorhanden ist, kann ein neuronales Netzmodul 56 oder ein künstliches neuronales Netz davon erklären 94, dass die bestimmte Niederschlagsbedingung vorhanden ist, und ein System 12 kann eine oder mehrere Maßnahmen ergreifen 96, die dieser Bedingung entsprechen.
  • Solche Maßnahmen können das Belassen eines Fahrzeugs 10a wie es ist, Aktivieren bestimmter Wischerblätter oder Leuchten, Ändern bestimmter Traktionssteuerungseinstellungen, Ausgeben einer oder mehrerer Warnungen an einen Fahrer, Mitteilen der speziellen Niederschlagsbedingung an ein Kommunikationssystem 22 oder ein anderes Fahrzeug 10b oder anderweitig Vorbereiten eines entsprechenden Fahrzeugs 10 beinhalten, sich an einen bestimmten Betriebszustand anzupassen, der der speziellen Niederschlagsbedingung entspricht. Ein System 12 kann auch in eine Warteschleife eintreten und einige Zeit warten (z. B. 10 Sekunden, 30 Sekunden, 1 Minute, 5 Minuten, 10 Minuten oder dergleichen), bevor neue Eingabedaten erhalten 82, 84 werden und der Klassifizierungsprozess wieder gestartet wird. In bestimmten Ausführungsformen können solche Maßnahmen das Öffnen eines speziell entwickelten Regenschirms oder eines Regenkleidungsfachs beinhalten, wenn feststeht, dass ein Benutzer eine Tür eines Fahrzeugs 10 öffnet und aus dem Fahrzeug 10 aussteigen will, wenn es regnet oder dergleichen.
  • Ein System 12 gemäß der vorliegenden Erfindung kann, während ein entsprechendes Fahrzeug 10 läuft, kontinuierlich oder periodisch Daten von einem oder mehreren Sensoren 14, 16 verarbeiten, um eine aktuelle Niederschlagsbedingung zu bestimmen. Alternativ kann ein System 12 Daten von einem oder mehreren Sensoren 14, 16 nur dann verarbeiten, um eine aktuelle Niederschlagsbedingung zu bestimmen, wenn bestimmte Voraussetzungen erfüllt sind. Beispielsweise kann ein System 12 solche Daten nur verarbeiten, wenn Wettervorhersageinformationen für den entsprechenden geografischen Standort die Möglichkeit für bestimmte Arten von meteorologischem Niederschlag angeben.
  • In ausgewählten Ausführungsformen, nachdem eine oder mehrere Maßnahmen durch ein System 12 ergriffen 92, 96 werden, kann ein Prozess 76 enden oder im Zyklus zurückgehen und erneut beginnen. Alternativ kann ein Prozess 76 fortfahren, um menschliche Rückmeldungen zur Verbesserung eines Systems 12 zu verwenden. Beispielsweise kann in bestimmten Ausführungsformen ein System 12 zu einem bestimmten Zeitpunkt innerhalb eines Prozesses 76 gemäß der vorliegenden Erfindung 98 eine Rückmeldung von einem Menschen (z.°B. ein menschlicher Fahrer) empfangen 98. Diese Rückmeldung kann angeben, welche Klasse 80 oder Bedingung welchen Eingabedaten entspricht. Dementsprechend können die Rückmeldung und die entsprechenden Eingabedaten Trainingsdaten werden, die zum Aktualisieren 100 und/oder erneuten Trainieren eines künstlichen neuronalen Netzes verwendet werden können. Alternativ oder zusätzlich dazu können solche Rückmeldungen verwendet werden, um einen oder mehrere Schwellenwerte anzupassen oder feinabzustimmen, die in dem Prozess 76 verwendet werden.
  • Unter Bezugnahme auf 6 können Bilddaten in ausgewählten Prozessen gemäß der vorliegenden Erfindung unter Verwendung eines künstlichen neuronalen Netzes verarbeitet werden, während andere Sensordaten unter Verwendung anderer Signalverarbeitungstechniken verarbeitet werden können. Beispielsweise können in dem veranschaulichten Prozess 102 eines oder mehrere Bilder, die durch eine vorwärts weisende Kamera 14a, rückwärts weisende Kamera 14b, Fahrgastraum-Kamera 14c aufgenommen werden), erhalten 82, und durch ein künstliches neuronales Netz verarbeitet werden, während Beschleunigungsmesserdaten (z.°B. Beschleunigungsmesserdaten, die Vibrationen einer Windschutzscheibe kennzeichnen), durch Filtern, Verwenden von Zählern und phasengeregelte Schleifen oder dergleichen oder Kombinationen davon erhalten 84 und verarbeitet werden.
  • In bestimmten Ausführungsformen, sobald erhalten 82, können eines oder mehrere Bilder unter Verwendung von anspruchsvollen Computersichttechniken mit wiederkehrenden neuronalen Netzen analysiert werden, um ein Niveau an Fahrersicht zu modellieren und vorherzusagen. Basierend auf einem oder mehreren Bildern, die von einer Fahrgastraumkamera 14c erhalten 82 werden, kann beispielsweise ein System 12 vorhersagen, wenn ein Fahrer die Windschutzscheibenwischer einschalten würde.
  • In ausgewählten Ausführungsformen kann ein System 12 eine Sequenz von Bildern erhalten 82 und verwenden, um Regen vorherzusagen. Dies kann das Anwenden von anpassbaren Schwellenwerttechniken beinhalten, die erfolgreich mit nur ein paar Bildern arbeiten. Dementsprechend können die erhaltenen 82 Bilder mit unterschiedlichen Kameraparametern (z.°B. Tiefenschärfe, Belichtungseinstellungen usw.) aufgenommen, und einem neuronalen Netz zugeführt werden, das eine Affinitätspunktzahl entsprechend jeder Klasse einer Vielzahl von Klassen erzeugen 104 kann. Irgendwann danach können einer oder mehrere Schwellenwerte mit den Affinitätspunktzahlen verglichen werden, um eine entsprechende Niederschlagsbedingung 80 zu bestimmen 106 (z.°B. bestimmen 106, ob es angemessen ist, eine bestimmte Niederschlagsbedingung 80 zu erklären).
  • In bestimmten Ausführungsformen können einer oder mehrere Beschleunigungssensoren auf der Windschutzscheibe des Fahrzeugs angebracht werden. Dementsprechend können die von Regentropfen, Hagel, Niederschlag oder anderen Niederschlagseffekten, die die Windschutzscheibe beeinflussen, erzeugten Schwingungen markante Signale auf dem Beschleunigungsmesser erzeugen. Die Signalausgabe von einem oder mehreren Beschleunigungsmessern kann gefiltert 108 werden (z.°B. über einen Tiefpassfilter), um die Variation zu lokalisieren und zu trennen, die durch Niederschlag oder Niederschlagseffekte erzeugt wird. Die Analyse 110 (z.°B. unter Verwendung von Zählern und Leistungsindikatoren und phasengeregelten Schleifen) dieses Signals kann eine Schätzung der Niederschlagsrate bereitstellen. Dementsprechend kann ein System 12 eine Niederschlagsvorhersage (z.°B. einen Hinweis, ob Niederschlag oder ein Niederschlagseffekt vorhanden ist), und/oder eine optimale Wischergeschwindigkeit erstellen oder bestimmen 112. Irgendwann danach können einer oder mehrere Schwellenwerte mit diesen Ausgaben verglichen werden, um eine entsprechende Niederschlagsbedingung 80 zu bestimmen 114 (z.°B. bestimmen 106, ob es angemessen ist, eine bestimmte Niederschlagsbedingung 80 zu erklären).
  • In ausgewählten Ausführungsformen, wenn die Bestimmung 106 entsprechend dem einem oder den mehreren Bildern, und die Bestimmung 114 entsprechend den Beschleunigungsmesserdaten beide eine bestimmte Niederschlagsbedingung 80 angeben, kann ein System 12 eine Maßnahme 116 ergreifen, die dieser Bedingung 80 entspricht. Beispielsweise kann ein System 12 einen oder mehrere Scheibenwischer anweisen 116, mit einer oder mehreren bestimmten Wischergeschwindigkeiten zu arbeiten. Umgekehrt, wenn eine oder beide der Bestimmungen 106, 114 nicht eindeutig eine bestimmte Niederschlagsbedingung 80 identifizieren, dann kann keine Maßnahme(z.°B. Ändern) ergriffen oder implementiert werden, bis andere Bilder und/oder Beschleunigungsmesserdaten eindeutig eine bestimmte Niederschlagsbedingung 80 angeben. Dies kann bei der Beseitigung von Fehlalarmen helfen, die lästiger oder störender auf einen Fahrer als ein System 12 wirken würden, das nichts unternimmt (z.°B. keine Änderungen an den Funktionen des Fahrzeugs 10 vornehmen).
  • Unter Bezugnahme auf 7 können Bilddaten in ausgewählten Prozessen gemäß der vorliegenden Erfindung unter Verwendung eines künstlichen neuronalen Netzes verarbeitet werden, während mehrere Arten anderer Sensordaten unter Verwendung anderer Signalverarbeitungstechniken verarbeitet werden können. Beispielsweise können in dem veranschaulichten Prozess 118 eines oder mehrere Bilder erhalten 82, und durch ein künstliches neuronales Netz verarbeitet werden, während Beschleunigungsmesserdaten erhalten 84a, und durch Filtern 108 unter Verwendung 110 von Zählern und phasengeregelten Schleifen oder dergleichen, oder Kombinationen und Reibungsdaten davon (z.°B. Daten, die Radschlupf, den Reibschluss oder Eingriff zwischen einem oder mehreren Reifen eines Fahrzeugs 10 und einer entsprechenden Fahrfläche oder dergleichen, oder eine Kombination davon), auf gewünschte Art erhalten 84b und verarbeitet 120 werden.
  • An einem Punkt können einer oder mehrere Schwellenwerte mit den Reibungsdaten verglichen werden, um eine entsprechende Niederschlagsbedingung 80 zu bestimmen 114 (z.°B. bestimmen 106, ob es angemessen ist, eine bestimmte Niederschlagsbedingung 80 zu erklären). Dementsprechend, wenn die Bestimmung 106 entsprechend dem einen oder den mehreren Bildern, die Bestimmung 114 entsprechend den Beschleunigungsmesserdaten, und die Bestimmung 122 entsprechend den Reibungsdaten alle eine bestimmte Niederschlagsbedingung 80 angeben, kann ein System 12 eine Maßnahme 116 ergreifen, die dieser Bedingung 80 entspricht (z.°B. Anweisen 116 von einem oder mehreren Wischern, mit einer oder mehreren bestimmten Wischergeschwindigkeiten zu arbeiten). Umgekehrt, wenn eine der Bestimmungen 106, 114, 122 nicht eindeutig eine bestimmte Niederschlagsbedingung 80 identifiziert, dann kann keine Maßnahme (z.°B. Ändern) ergriffen oder implementiert werden, bis andere Bilder, Beschleunigungsmesserdaten und Reibungsdaten eindeutig eine bestimmte Niederschlagsbedingung 80 angeben. Dies kann wiederum bei der Beseitigung von Fehlalarmen helfen.
  • In den Prozessen 62, 76, 102, 118 gemäß der vorliegenden Erfindung ist das den Bilddaten oder Klassifizierungen der Bilddaten verliehene Gewicht möglicherweise nicht gleich dem Gewicht, das anderen Sensordaten oder Bestimmungen basierend auf anderen Sensordaten verliehen wird. Auf ähnliche Weise kann das Gewicht, das einer Art von anderen Sensordaten (z.°B. Beschleunigungsmesserdaten) oder Bestimmungen basierend auf einer Art von anderen Sensordaten nicht gleich dem Gewicht sein, das einer anderen Art von anderen Sensordaten (z.°B. Reibungsdaten) verliehen wird, oder Bestimmungen, basierend auf einer anderen Art von anderen Sensordaten. Vielmehr können unterschiedliche Gewichte angewandt werden, um vorzugsweise Daten, Klassifizierungen, Bestimmungen oder dergleichen zu berücksichtigen, die nachweislich in bestimmten Situationen nützlicher sind.
  • Beispielsweise können Bilddaten (z.°B. von einer Kamera gesammelte Bilddaten) beim Erkennen des Vorhandenseins von Schnee (z.°B. fallender Schnee oder bereits auf dem Boden liegender Schnee) nützlicher sein. Dementsprechend können in ausgewählten Ausführungsformen oder Situationen, wenn ein Thermometer eine Temperatur anzeigt, die mit Schnee, Bilddaten oder den Klassifizierungen basierend auf Bilddaten kompatibel ist, stärker gewichtet werden als Beschleunigungsmesserdaten oder die auf Beschleunigungsmesserdaten basierenden Bestimmungen. In ausgewählten Ausführungsformen können solche anderen Gewichtungen mit dem Training eines künstlichen neuronalen Netzes „eingebacken“ werden (z.°B. ein einzelnes künstliches neuronales Allzwecknetz). In anderen Ausführungsformen können solche unterschiedlichen Gewichtungen basierend auf Erfahrungen oder Erwartungen manuell einprogrammiert werden.
  • Darüber hinaus stellen die Ablaufdiagramme in den 3 und 5-7 die Architektur, Funktionen und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten gemäß unterschiedlichen Ausführungsformen der vorliegenden Erfindung dar. In dieser Hinsicht kann jeder Block in den Ablaufdiagrammen ein Modul, ein Segment oder einen Abschnitt eines Codes darstellen, das bzw. der eine oder mehrere ausführbare Anweisungen zum Implementieren der spezifizierten logischen Funktion(en) umfasst. Es wird außerdem festgestellt, dass jeder Block der Ablaufdiagrammdarstellungen sowie Kombinationen der Blöcke in den Ablaufdiagrammdarstellungen von hardwarebasierten Systemen für spezielle Zwecke, welche die spezifizierten Funktionen oder Funktionen ausführen oder Kombinationen aus Hardware für spezielle Zwecke und Computeranweisungen implementiert werden können.
  • Außerdem ist anzumerken, dass in einigen alternativen Implementierungen die in den Blöcken vermerkten Funktionen in einer anderen als der in den Figuren dargestellten Reihenfolge auftreten können. In bestimmten Ausführungsformen können zwei Blöcke, die aufeinanderfolgend gezeigt sind, eigentlich im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal in umgekehrter Reihenfolge ausgeführt werden, je nach der beteiligten Funktionalität. Alternativ können bestimmte Schritte oder Funktionen ausgelassen werden, wenn sie nicht benötigt werden.
  • In der vorangehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen spezifische Implementierungen zur Veranschaulichung gezeigt werden, in denen die Offenbarung ausgeübt werden kann. Es versteht sich, dass andere Implementierungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Patentschrift auf „eine Ausführungsform“, „ein Ausführungsbeispiel“, „ausgewählte Ausführungsformen“, „bestimmte Ausführungsformen“ usw. geben an, dass die beschriebene Ausführungsform oder die beschriebenen Ausführungsformen ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft einschließen kann bzw. können; nicht jede Ausführungsform muss jedoch notwendigerweise diese(s) bestimmte Merkmal, Struktur oder Eigenschaft einschließen. Darüber hinaus beziehen sich solche Ausdrücke nicht unbedingt auf dieselbe Ausführungsform. Wenn ein Merkmal, eine Struktur oder eine Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, wird davon ausgegangen, dass es innerhalb des Wissens eines Fachmanns liegt, das Merkmal, die Struktur oder die Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, unabhängig davon, ob dies ausdrücklich beschrieben wird oder nicht.
  • Implementierungen der hierin offenbarten Systeme, Vorrichtung und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware einschließt, wie etwa einen oder mehrere Prozessoren und einen Systemspeicher, wie hierin erörtert. Implementierungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem Datenträger und andere computerlesbare Medien zum Weiterleiten oder Speichern von von einem Computer ausführbaren Anweisungen und/oder Datenstrukturen einschließen. Bei solchen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen von einem Computer ausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien (-geräte). Bei computerlesbaren Medien, die von einem Computer ausführbare Anweisungen weiterleiten, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der Offenbarung beispielsweise und nicht einschränkend zumindest zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-geräte) und Übertragungsmedien.
  • Computerspeichermedien (-geräte) schließen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs“) (z. B auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder beliebige andere Medien ein, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Implementierung der hierin offenbaren Vorrichtungen, Systemen und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netz“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netz oder eine andere Kommunikationsverbindung (entweder drahtgebunden, drahtlos oder eine Kombination aus drahtgebunden oder drahtlos) an einen Computer übertragen oder diesem bereitgestellt wird, betrachtet der Computer die Verbindung dementsprechend als ein Übertragungsmedium. Übertragungsmedien können ein Netz und/oder Datenverbindungen einschließen, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu übertragen, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden fallen ebenfalls in den Umfang computerlesbarer Medien.
  • Von einem Computer ausführbare Anweisungen umfassen z.°B. Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die von einem Computer ausführbaren Anweisungen können z.°B. Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
  • Der Fachmann wird verstehen, dass die Offenbarung in Netzwerkrechenumgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, einschließend einen Armaturenbrett-Fahrzeugcomputer, PCs, Desktop-Computer, Laptops, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Schalter, unterschiedliche Speichervorrichtungen und Ähnliches. Diese Offenbarung kann außerdem in Umgebungen mit verteilten Systemen durchgeführt werden, in denen sowohl lokale Computersysteme als auch Remotecomputersysteme, die durch ein Netz (entweder durch drahtgebundene Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus drahtgebundenen und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer verteilten Systemumgebung können Programmmodule sowohl auf lokalen als auch Remote-Speicherungsvorrichtungen angesiedelt sein.
  • Ferner können die hierin beschriebene Funktionen gegebenenfalls in einem oder mehreren von Folgenden durchgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können z.°B. programmiert sein, um eins oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Ausdrücke werden in der Beschreibung und den Ansprüchen in Bezug auf bestimmte Systemkomponenten verwendet. Wie ein Fachmann verstehen wird, kann auf Komponenten durch die Verwendung unterschiedlicher Bezeichnungen Bezug genommen werden. In diesem Dokument soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es sei angemerkt, dass die vorangehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um wenigstens einen Teil der Funktionen durchzuführen. Ein Sensor kann z.°B. Computercode beinhalten, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen werden hierin zu Veranschaulichungszwecken bereitgestellt und sollen nicht der Einschränkung dienen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie einem Fachmann auf dem oder den Gebieten bekannt.
  • Wenigstens einige Ausführungsformen der Offenbarung betreffen Computerprogrammprodukte, die eine solche Logik (z.°B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • Während unterschiedliche Ausführungsformen der vorliegenden Offenbarung oben beschrieben wurden, versteht es sich, dass diese nur als Beispiel und nicht als Einschränkung dargestellt wurden. Es ist für den Fachmann auf dem Gebiet offensichtlich, dass unterschiedliche Änderungen in Form und Detail vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung nicht durch eines der vorangehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Ansprüche und ihrer Äquivalente definiert sein. Die vorangehende Beschreibung wurde zu Veranschaulichungs- und Beschreibungszwecken dargelegt. Sie ist nicht als umfassend anzusehen und soll die Offenbarung nicht auf die spezifische offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der oben angegebenen Lehren möglich. Ferner ist angemerkt, dass eine beliebige oder alle der vorangehend genannten alternativen Implementierungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridimplementierungen der Offenbarung zu bilden.
  • Die vorliegende Erfindung kann in anderen spezifischen Formen ausgeführt sein, ohne von ihrem Gedanken oder wesentlichen Merkmalen abzuweichen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als veranschaulichend und nicht als begrenzend anzusehen. Der Umfang der Erfindung wird daher durch die beigefügten Ansprüche und nicht durch die vorstehende Beschreibung angegeben. Alle Änderungen, die innerhalb der Bedeutung und des Bereichs der Gleichwertigkeit der Ansprüche liegen, sind innerhalb ihres Umfangs einzubinden.

Claims (20)

  1. Fahrzeug, umfassend: eine Bilddaten ausgebende Kamera; eine Windschutzscheibe; einen Beschleunigungsmesser, der Beschleunigungsmesserdaten ausgibt, die Vibrationen der Windschutzscheibe kennzeichnen; ein künstliches neuronales Netz, das trainiert ist, um meteorologischen Niederschlag in einer Umgebung des Fahrzeugs unter Verwendung der Bilddaten und der Beschleunigungsmesserdaten als Eingaben zu klassifizieren; und mindestens ein Stellglied, das mindestens eine Funktion des Fahrzeugs basierend auf Klassifizierungen steuert, die durch das künstliche neuronale Netz erfolgen.
  2. Fahrzeug nach Anspruch 1, wobei die Kamera an dem Fahrzeug befestigt und so ausgerichtet ist, dass sie vorwärts weist.
  3. Fahrzeug nach Anspruch 1, wobei die Kamera an dem Fahrzeug befestigt und so ausgerichtet ist, dass sie rückwärts weist.
  4. Fahrzeug nach Anspruch 1, wobei die Bilddaten mehrere aufeinanderfolgende Bilder umfassen, die von der Kamera über einen Zeitraum von weniger als zehn Sekunden aufgenommen werden.
  5. Fahrzeug nach Anspruch 4, weiterhin umfassend mindestens einen Scheibenwischer, und wobei die mindestens eine Funktion eine Geschwindigkeit des mindestens einen Scheibenwischers umfasst.
  6. Fahrzeug nach Anspruch 5, weiterhin umfassend einen Antriebsstrang, der einen oder mehrere Reifen aufweist.
  7. Fahrzeug nach Anspruch 6, weiterhin umfassend einen Antriebsstrangsensor, der Reibungsdaten ausgibt, die den Reibschluss des einen oder der mehreren Reifen mit einer Fahrfläche kennzeichnen.
  8. Fahrzeug nach Anspruch 7, wobei das künstliche neuronale Netz trainiert ist, um meteorologischen Niederschlag mindestens teilweise basierend auf jedem von den Bilddaten, den Beschleunigungsmesserdaten und den Reibungsdaten zu klassifizieren.
  9. Fahrzeug nach Anspruch 4, weiterhin umfassend eine Antriebsschlupfregelung, und wobei die mindestens eine Funktion eine Einstellung des Antischlupfregelungssystems umfasst.
  10. Fahrzeug nach Anspruch 1, weiterhin umfassend ein Kommunikationssystem, das eine oder mehrere Klassifizierungen des künstlichen neuronalen Netzes an Hardware außerhalb des Fahrzeugs übermittelt.
  11. Fahrzeug nach Anspruch 1, wobei das künstliche neuronale Netz trainiert ist, um mindestens drei Klassen von meteorologischem Niederschlag zu klassifizieren, wobei die mindestens drei Klassen keinen Regen, Regen unter einer ersten Niederschlagsrate und Regen über einer zweiten Niederschlagsrate umfassen, die gleich oder größer als die erste Niederschlagsrate ist.
  12. Verfahren, umfassend: Empfangen von Bilddaten, die von einer Kamera aufgenommen werden, die so ausgerichtet ist, dass sie im Verhältnis zu dem Fahrzeug vorwärts oder rückwärts weist, durch ein Computersystem an Bord ein Fahrzeugs, wobei die Bilddaten mindestens ein innerhalb eines Zeitraums von der Kamera aufgenommenes Bild umfassen; Empfangen von Beschleunigungsmesserdatenausgaben durch einen Beschleunigungsmesser, der an einer Windschutzscheibe des Fahrzeugs befestigt ist, durch das Computersystem, wobei die Beschleunigungsmesserdaten Vibrationen der Windschutzscheibe während des Zeitraums kennzeichnen; Empfangen der Bilddaten und der Beschleunigungsmesserdaten als Eingaben durch ein künstliches neuronales Netz, das auf dem Computersystem läuft; Erzeugen von Klassifizierungspunktzahlen basierend auf den Eingaben in Bezug auf mindestens drei Klassen von meteorologischem Niederschlag durch das künstliche neuronale Netz, wobei die mindestens drei Klassen keinen Regen, Regen unter einer ersten Niederschlagsrate und Regen über einer zweiten Niederschlagsrate umfassen, die gleich oder größer als die erste Niederschlagsrate ist; und Steuern von mindestens einer Funktion des Fahrzeugs durch das Computersystem basierend auf den durch das künstliche neuronale Netz erzeugten Klassifizierungspunktzahlen.
  13. Verfahren nach Anspruch 12, wobei: die Bilddaten mehrere aufeinanderfolgende Bilder umfassen, die von der Kamera über den Zeitraum aufgenommen werden; und der Zeitraum weniger als 10 Sekunden beträgt.
  14. Fahrzeug nach Anspruch 13, wobei das Fahrzeug mindestens einen Scheibenwischer umfasst, und wobei die mindestens eine Funktion eine Geschwindigkeit des mindestens einen Scheibenwischers umfasst.
  15. Fahrzeug nach Anspruch 12, wobei das Fahrzeug einen Antriebsstrang umfasst, der einen oder mehrere Reifen aufweist.
  16. Fahrzeug nach Anspruch 15, wobei das Fahrzeug weiterhin einen Antriebsstrangsensor umfasst, der Reibungsdaten ausgibt, die den Reibschluss des einen oder der mehreren Reifen mit einer Fahrfläche kennzeichnen.
  17. Verfahren nach Anspruch 16, weiterhin umfassend das Empfangen der Bilddaten, der Beschleunigungsmesserdaten und der Reibungsdaten durch das künstliche neuronale Netz als die Eingaben.
  18. Fahrzeug nach Anspruch 17, wobei das Fahrzeug weiterhin ein Antriebsschlupfregelungssystem umfasst, und wobei die mindestens eine Funktion eine Einstellung des Antischlupfregelungssystems umfasst.
  19. Fahrzeug nach Anspruch 12, wobei das Fahrzeug weiterhin ein Kommunikationssystem umfasst, das eine oder mehrere Klassifizierungen des künstlichen neuronalen Netzes an Hardware außerhalb des Fahrzeugs übermittelt.
  20. Verfahren nach Anspruch 19, wobei die Hardware außerhalb des Fahrzeugs einen Teil der stationären Telekommunikationsinfrastruktur oder eines anderen Fahrzeugs ausbildet.
DE102017123002.5A 2016-10-06 2017-10-04 Mehrfachsensor-niederschlagsklassifizierung vorrichtung und verfahren Pending DE102017123002A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/287,305 US10427645B2 (en) 2016-10-06 2016-10-06 Multi-sensor precipitation-classification apparatus and method
US15/287,305 2016-10-06

Publications (1)

Publication Number Publication Date
DE102017123002A1 true DE102017123002A1 (de) 2018-04-19

Family

ID=61764931

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017123002.5A Pending DE102017123002A1 (de) 2016-10-06 2017-10-04 Mehrfachsensor-niederschlagsklassifizierung vorrichtung und verfahren

Country Status (4)

Country Link
US (1) US10427645B2 (de)
CN (1) CN107918311B (de)
DE (1) DE102017123002A1 (de)
MX (1) MX2017012904A (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018217191A1 (de) * 2018-10-09 2020-04-09 Robert Bosch Gmbh Verfahren zum Trainieren eines Künstlichen-Intelligenz-Moduls, Betriebsverfahren und Datenverarbeitungseinrichtung
DE102021200652A1 (de) 2021-01-26 2022-07-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Klassifikation von Niederschlag mittels eines LiDAR-Systems
DE102022127608A1 (de) 2022-10-19 2024-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Überwachung eines Kraftfahrzeugs

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10521677B2 (en) * 2016-07-14 2019-12-31 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of vision-based rain-detection algorithms
US11080534B2 (en) * 2016-11-14 2021-08-03 Lyft, Inc. Identifying objects for display in a situational-awareness view of an autonomous-vehicle environment
EP3340103A1 (de) * 2016-12-21 2018-06-27 Axis AB Verfahren zur identifizierung von ereignissen in einem bewegungsvideo
US10173643B2 (en) * 2017-02-20 2019-01-08 Ford Global Technologies, Llc Object detection for vehicles
DE102017205093A1 (de) * 2017-03-27 2018-09-27 Conti Temic Microelectronic Gmbh Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs
US10569786B2 (en) 2017-04-13 2020-02-25 Blackberry Limited Parameters sets for vehicles based on sensor data
US10629081B2 (en) * 2017-11-02 2020-04-21 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for backup assistance in a vehicle
DE102018206619A1 (de) * 2018-04-27 2019-10-31 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrmanöverassistenz eines Fahrzeuges, Vorrichtung, Computerprogramm und Computerprogrammprodukt
CN109080573B (zh) * 2018-07-23 2020-07-07 吉利汽车研究院(宁波)有限公司 一种基于超声波的车辆自适应盲区监测系统
EP3850539B1 (de) * 2018-09-13 2024-05-29 NVIDIA Corporation Verarbeitung von tiefen neuronalen netzen zur sensorblindheitsdetektion in autonomen maschinenanwendungen
JP7074007B2 (ja) * 2018-09-28 2022-05-24 トヨタ自動車株式会社 降水指標推定装置
JP7187944B2 (ja) * 2018-09-28 2022-12-13 トヨタ自動車株式会社 処理装置および処理方法
JP7081426B2 (ja) * 2018-09-28 2022-06-07 トヨタ自動車株式会社 降水指標推定装置
JP7081427B2 (ja) * 2018-09-28 2022-06-07 トヨタ自動車株式会社 降水指標推定装置
JP7063220B2 (ja) * 2018-09-28 2022-05-09 トヨタ自動車株式会社 降水指標推定装置
JP7081428B2 (ja) * 2018-09-28 2022-06-07 トヨタ自動車株式会社 降水指標推定装置
DE102018217192A1 (de) * 2018-10-09 2020-04-09 Robert Bosch Gmbh Verfahren und System zum Bereitstellen einer Reibwertinformation an ein Fahrzeug
EP3640102B1 (de) 2018-10-17 2024-06-12 BlackBerry Limited Routenbasierte auswahl von fahrzeugparametersätzen
US20200202167A1 (en) * 2018-12-20 2020-06-25 Here Global B.V. Dynamically loaded neural network models
US20200210788A1 (en) * 2018-12-31 2020-07-02 Robert Bosch Gmbh Determining whether image data is within a predetermined range that image analysis software is configured to analyze
US11447151B2 (en) * 2019-01-09 2022-09-20 Board Of Trustees Of Michigan State University Object detection under rainy conditions for autonomous systems
CN110049216A (zh) * 2019-04-18 2019-07-23 安徽易睿众联科技有限公司 一种可实时识别降水类型的网络摄像机
DE112020002697T5 (de) * 2019-05-30 2022-03-17 Mobileye Vision Technologies Ltd. Modellerstellung einer fahrzeugumgebung mit kameras
WO2021044486A1 (ja) * 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法
US20220398456A1 (en) * 2019-11-20 2022-12-15 Nvidia Corporation Identification of multi-scale features using a neural network
US20230138969A1 (en) * 2020-03-31 2023-05-04 Zenuity Ab Method and system for predicting the presence of environmental conditions in image data
JP7363707B2 (ja) * 2020-08-03 2023-10-18 トヨタ自動車株式会社 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法
DE102021207792A1 (de) * 2021-07-21 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Regeln eines Reinigungsvorgangs für einen optischen Weg eines Kamerasystems einer mobilen Plattform
CN113673361A (zh) * 2021-07-28 2021-11-19 东风汽车集团股份有限公司 一种雨雾识别方法、清扫系统和计算机可读存储介质
US20230083999A1 (en) * 2021-09-12 2023-03-16 Continental Automotive Systems, Inc. Contact and audible sensor system to detect and warn driver of environmental conditions
DE102022200154A1 (de) * 2022-01-10 2023-07-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erfassen von Informationen zu einer Windschutzscheibe
FR3136723A1 (fr) * 2022-06-21 2023-12-22 Psa Automobiles Sa Procédé et dispositif de détection de pluie
CN115236768B (zh) * 2022-07-27 2023-07-21 信迈(山东)信息产业有限公司 移动式农业智能小型气象站

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3446069A (en) * 1967-07-31 1969-05-27 Us Navy Rain gauge for airborne vehicle
US4527105A (en) * 1982-09-02 1985-07-02 Nissan Motor Company, Limited Automatic windshield wiper speed control with piezoelectric sensor
JPS59137857A (ja) 1983-01-28 1984-08-08 Jidosha Denki Kogyo Co Ltd 自動ワイパ装置の雨滴検出器
JPH0647366B2 (ja) * 1986-04-09 1994-06-22 日産自動車株式会社 水滴除去装置
DE8914426U1 (de) 1989-03-29 1990-03-08 Kabelwerke Reinshagen Gmbh, 5600 Wuppertal, De
DE4033332C2 (de) 1989-10-23 1994-09-01 Jidosha Denki Kogyo Kk Scheibenwischervorrichtung
DE4000736A1 (de) * 1990-01-12 1991-07-18 Vdo Schindling Verfahren und anordnung zur steuerung eines scheibenwischers
US7760080B2 (en) * 2000-09-08 2010-07-20 Automotive Technologies International, Inc. Tire monitoring with passive and active modes
EP0851240B1 (de) * 1996-12-26 2006-01-25 Nippon Telegraph And Telephone Corporation Verfahren und Vorrichtung zur Niederschlagsmustervoraussage mit einem meteorologischen Radar
US5923027A (en) * 1997-09-16 1999-07-13 Gentex Corporation Moisture sensor and windshield fog detector using an image sensor
US6392218B1 (en) * 2000-04-07 2002-05-21 Iteris, Inc. Vehicle rain sensor
CA2494723C (en) * 2002-08-21 2011-11-08 Gentex Corporation Image acquisition and processing methods for automatic vehicular exterior lighting control
JP2006521237A (ja) * 2003-03-21 2006-09-21 ダイムラークライスラー・アクチェンゲゼルシャフト 道路と車両タイヤとの間で作用する摩擦を表す摩擦値を決定するための方法及び装置
US6892580B2 (en) * 2003-07-21 2005-05-17 Agc America, Inc. Method for determining a rate of rain
US6936985B2 (en) * 2003-07-21 2005-08-30 Agc America, Inc. Sensing device for determining a rain rate
JP4389700B2 (ja) * 2004-07-07 2009-12-24 株式会社デンソー ワイパ制御装置
US7253898B2 (en) * 2005-03-31 2007-08-07 Hitachi, Ltd. System for detecting droplets on a translucent surface
JP4353127B2 (ja) 2005-04-11 2009-10-28 株式会社デンソー レインセンサ
FR2901218B1 (fr) * 2006-05-22 2009-02-13 Valeo Vision Sa Procede de detection de pluie sur un parebrise
EP2048476B1 (de) * 2007-10-08 2013-12-11 Delphi Technologies, Inc. Fahrerunterstützungsverfahren
JP5600313B2 (ja) * 2008-04-21 2014-10-01 エフエスシー カンパニー,リミテッド 雨滴感知センサー
DE102008001679A1 (de) * 2008-05-09 2009-11-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur Verarbeitung von aufgenommenen Bildinformationen aus einem Fahrzeug
JP2009300166A (ja) * 2008-06-11 2009-12-24 Asmo Co Ltd 雨滴検出装置及び雨滴検出方法並びに車両用ワイパ装置
WO2010084521A1 (ja) 2009-01-20 2010-07-29 本田技研工業株式会社 ウインドシールド上の雨滴を同定するための方法及び装置
US8466960B2 (en) * 2009-02-16 2013-06-18 Ricoh Company, Ltd. Liquid droplet recognition apparatus, raindrop recognition apparatus, and on-vehicle monitoring apparatus
US8170725B2 (en) * 2009-02-18 2012-05-01 GM Global Technology Operations LLC Vehicle stability enhancement control adaptation to driving skill based on highway on/off ramp maneuver
KR20110060495A (ko) * 2009-11-30 2011-06-08 동양기전 주식회사 광 산란을 이용한 레인 센서
FR2956236B1 (fr) * 2010-02-09 2012-11-30 France Etat Ponts Chaussees Procede et dispositif de detection de gouttes dans une image numerique; programme d'ordinateur pour la mise en oeuvre de ce procede.
JP6014303B2 (ja) * 2010-10-04 2016-10-25 セイコーエプソン株式会社 気象変動予測情報提供システム及び気象変動予測情報提供方法
DE112011102968A5 (de) * 2010-11-30 2013-07-04 Conti Temic Microelectronic Gmbh Detektion von Regentropfen auf einer Scheibe mittels einer Kamera und Beleuchtung
KR20120064474A (ko) 2010-12-09 2012-06-19 엘지이노텍 주식회사 카메라 모듈을 이용한 우적 감지 장치 및 방법
DE102010063017A1 (de) * 2010-12-14 2012-06-14 Robert Bosch Gmbh Verfahren in einem Fahrerassistenzsystem zur Erkennung von Nässe auf einer Fahrbahn
JP5917697B2 (ja) * 2011-09-07 2016-05-18 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 車両のフロントガラス上の雨滴を検出するための方法およびカメラアセンブリ
EP2754095B1 (de) * 2011-09-07 2017-06-14 Valeo Schalter und Sensoren GmbH Verfahren und kameraanordnung zur erfassung von regentropfen auf einer windschutzscheibe eines kraftfahrzeugs
JP5561333B2 (ja) * 2011-11-02 2014-07-30 株式会社リコー 画像処理装置、撮像方法、プログラムおよび車両
DE102011120867A1 (de) 2011-12-12 2013-06-13 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zur Regenerfassung auf einer Windschutzscheibe
DE102012103873A1 (de) * 2012-05-03 2013-11-21 Conti Temic Microelectronic Gmbh Detektion von Regentropfen auf einer Scheibe mittels einer Kamera und Beleuchtung
JP2014016302A (ja) * 2012-07-11 2014-01-30 Denso Corp 降雨判定装置、風量算出装置、および付着物判定装置
CN104080663B (zh) * 2012-08-06 2017-06-20 康蒂特米克微电子有限公司 用于识别下雨的装置和利用摄像机识别下雨的方法
DE102012215287A1 (de) 2012-08-29 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrzeugs
US9110196B2 (en) * 2012-09-20 2015-08-18 Google, Inc. Detecting road weather conditions
EP2897845B1 (de) * 2012-09-20 2017-08-09 Waymo Llc Erkennung von witterungsbedingungen auf strassen
US9045112B2 (en) * 2013-03-15 2015-06-02 Honda Motor Co., Ltd. Adjustable rain sensor setting based on proximity vehicle detection
US9002584B2 (en) * 2013-03-19 2015-04-07 Ford Global Technologies, Llc Rain onset detection glazing auto-close
CN103318108B (zh) * 2013-06-05 2016-06-15 浙江吉利汽车研究院有限公司杭州分公司 汽车的智能控制系统
JP6155510B2 (ja) * 2013-06-11 2017-07-05 株式会社島津ビジネスシステムズ 気象情報提供装置及び気象情報提供用プログラム
CN103576548B (zh) * 2013-07-26 2016-08-03 中国计量学院 基于神经网络的智能雨刷器
DE102013113431A1 (de) * 2013-12-04 2015-06-11 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Bestimmen einer Aquaplaning-Gefahr
US20150203107A1 (en) * 2014-01-17 2015-07-23 Ford Global Technologies, Llc Autonomous vehicle precipitation detection
CN103926636B (zh) * 2014-03-31 2016-09-28 卢会国 基于压电加速度传感器的雨量数据处理系统
DE102014207994A1 (de) 2014-04-29 2015-10-29 Conti Temic Microelectronic Gmbh Vorrichtung zum Erkennen von Niederschlag für ein Kraftfahrzeug
DE102014209197A1 (de) * 2014-05-15 2015-11-19 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zum Erkennen von Niederschlag für ein Kraftfahrzeug
IL233114A (en) * 2014-06-12 2016-09-29 Brightway Vision Ltd A method and system for pattern recognition, classification and tracking
CN104571079A (zh) * 2014-11-25 2015-04-29 东华大学 一种基于多传感器信息融合的无线远程故障诊断系统
CN105196910B (zh) * 2015-09-15 2018-06-26 浙江吉利汽车研究院有限公司 一种雨雾天气下的安全驾驶辅助系统及其控制方法
EP3156298B1 (de) * 2015-10-13 2022-08-10 Volvo Car Corporation Fahrunterstützungsanordnung, fahrzeug und verfahren zur steuerung einer längsgeschwindigkeit eines fahrzeugs
CN105292064A (zh) * 2015-10-30 2016-02-03 丹阳市天诚塑胶轮制造有限公司 一种可实现自动调速的汽车雨刮器
US9994175B2 (en) * 2016-03-04 2018-06-12 Honda Motor Co., Ltd. System for preconditioning a vehicle and method thereof
US20180017799A1 (en) * 2016-07-13 2018-01-18 Ford Global Technologies, Llc Heads Up Display For Observing Vehicle Perception Activity
US10279865B2 (en) * 2016-08-08 2019-05-07 Shareroller Llc. Friction drive with speed wheel and automatic traction control

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018217191A1 (de) * 2018-10-09 2020-04-09 Robert Bosch Gmbh Verfahren zum Trainieren eines Künstlichen-Intelligenz-Moduls, Betriebsverfahren und Datenverarbeitungseinrichtung
DE102021200652A1 (de) 2021-01-26 2022-07-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Klassifikation von Niederschlag mittels eines LiDAR-Systems
DE102022127608A1 (de) 2022-10-19 2024-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Überwachung eines Kraftfahrzeugs

Also Published As

Publication number Publication date
US20180099646A1 (en) 2018-04-12
CN107918311B (zh) 2022-10-04
US10427645B2 (en) 2019-10-01
MX2017012904A (es) 2018-09-27
CN107918311A (zh) 2018-04-17

Similar Documents

Publication Publication Date Title
DE102017123002A1 (de) Mehrfachsensor-niederschlagsklassifizierung vorrichtung und verfahren
DE112014007249B4 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102017107264A1 (de) Sichtbasierte regenerkennung unter verwendung des tiefen lernens
DE102011086512B4 (de) Nebeldetektion
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
DE102017127346A1 (de) Bremslichterkennung
DE102018132525A1 (de) Verfahren und Vorrichtung zur Bewertung einer Fahrzeugfahrfläche
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE102016119698B4 (de) Fahrzeugsteuerungssystem
DE102014223247A1 (de) Autonomfahrzeugerkennung
DE102011081614A1 (de) Verfahren und Vorrichtung zur Analysierung eines von einem Fahrzeug zu befahrenden Streckenabschnitts
DE102009046913A1 (de) Verfahren und Steuergerät zur Müdigkeitserkennung
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE112017007197T5 (de) Fahr-modusumschaltsteuerungsvorrichtung, verfahren und programm
DE102018108361A1 (de) Laubwerkerfassungstrainingssysteme und -verfahren
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE112013003276T5 (de) Objekterkennungseinrichtung
DE102015009849B4 (de) Radarsystem vom Typ für ein Fahrzeug und Verfahren zum Entfernen eines nicht interessierenden Ziels
DE112022001861T5 (de) Bewegungsbahnkonsistenzmessung für den betrieb eines autonomen fahrzeugs
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102019109491A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102016212716A1 (de) Steuervorrichtung und verfahren
DE102018219103A1 (de) Vorrichtung und Verfahren zum Ermitteln eines Aufmerksamkeitserforderlichkeitsgrades eines Fahrers eines Fahrzeugs

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE

Representative=s name: WABLAT LANGE KARTHAUS ANWALTSSOZIETAET, DE

Representative=s name: ETL WABLAT & KOLLEGEN PATENT- UND RECHTSANWALT, DE

R082 Change of representative

Representative=s name: ETL IP PATENTANWALTSGESELLSCHAFT MBH, DE

Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE

Representative=s name: ETL WABLAT & KOLLEGEN PATENT- UND RECHTSANWALT, DE

R082 Change of representative

Representative=s name: ETL IP PATENTANWALTSGESELLSCHAFT MBH, DE

Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE