DE102017115393A1 - Virtuelles sensordatenerzeugungssystem und verfahren zum unterstützen der entwicklung von sichtbasierten regendetektionsalgorithmen - Google Patents

Virtuelles sensordatenerzeugungssystem und verfahren zum unterstützen der entwicklung von sichtbasierten regendetektionsalgorithmen Download PDF

Info

Publication number
DE102017115393A1
DE102017115393A1 DE102017115393.4A DE102017115393A DE102017115393A1 DE 102017115393 A1 DE102017115393 A1 DE 102017115393A1 DE 102017115393 A DE102017115393 A DE 102017115393A DE 102017115393 A1 DE102017115393 A1 DE 102017115393A1
Authority
DE
Germany
Prior art keywords
virtual
vehicle
cameras
road surface
driving environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017115393.4A
Other languages
English (en)
Inventor
Ashley Elizabeth Micks
Harpreetsingh Banvait
Jinesh J. Jain
Vidya Nariyambut murali
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017115393A1 publication Critical patent/DE102017115393A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Analysis (AREA)
  • Computer Graphics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computing Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Es wird ein Verfahren zum Erzeugen von Trainingsdaten offenbart. Das Verfahren kann ein Ausführen eines Simulationsprozesses einschließen. Der Simulationsprozess kann das Durchfahren einer virtuellen Kamera durch eine virtuelle Fahrumgebung einschließen, umfassend mindestens eine virtuelle Niederschlagsbedingung und mindestens eine virtuelle Nicht-Niederschlagsbedingung. Während des Durchfahrens kann die virtuelle Kamera in Bezug auf die virtuelle Fahrumgebung, wie durch ein Fahrzeugbewegungsmodell vorgegeben, das Bewegung von einem Fahrzeug modelliert, das durch die virtuelle Fahrumgebung fährt, während es die virtuelle Kamera trägt, bewegt werden. Virtuelle Sensordaten, welche die virtuelle Fahrumgebung sowohl bei virtuellen Niederschlags- als auch virtuellen Nicht-Niederschlagsbedingungen charakterisieren, können aufgezeichnet werden. Die virtuellen Sensordaten können dem entsprechen, was ein realer Sensor ausgegeben hätte, wenn er die virtuelle Fahrumgebung in der realen Welt erfasst hätte.

Description

  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft Fahrzeugsysteme und insbesondere Systeme und Verfahren zum Erzeugen von Trainingsdaten, die zur Verwendung beim Entwickeln, Trainieren und Beweisen von Algorithmen zum Verwenden von Bilddaten geeignet sind, um Regen, andere Niederschläge oder andere Wetterbedingungen zu detektieren.
  • ALLGEMEINER STAND DER TECHNIK
  • Regen und andere Wetterbedingungen können die Funktionalität von Fahrzeugen beeinflussen. Zum Beispiel kann Regen die Traktion verringern, die Blendung verstärken, die Sicht beeinträchtigen oder Ähnliches. Dementsprechend werden Computeralgorithmen zum Detektieren von und Reagieren auf Regen und andere Wetterbedingungen benötigt. Was ferner benötigt wird, sind Systeme und Verfahren zum Erzeugen von Trainingsdaten, die zur Verwendung beim Entwickeln, Trainieren und Beweisen derartiger Algorithmen geeignet sind.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Um die Vorteile der Erfindung ohne Weiteres zu verstehen, wird eine genauere Beschreibung der oben kurz beschriebenen Erfindung durch Verweis auf spezifische Ausführungsformen, welche in den beigefügten Zeichnungen veranschaulicht sind, bereitgestellt. Unter der Kenntnisnahme, dass diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Geltungsbereich beschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch die Verwendung der begleitenden Zeichnungen beschrieben und erläutert, wobei:
  • 1 ein schematisches Blockdiagramm ist, das eine Ausführungsform eines Sensordatenerzeugungssystems gemäß der vorliegenden Erfindung veranschaulicht;
  • 2 ein schematisches Diagramm ist, das eine Ausführungsform einer virtuellen Fahrumgebung veranschaulicht, die simulierte Wetterbedingungen gemäß der vorliegenden Erfindung einschließen kann;
  • 3 ein schematisches Diagramm ist, das ein virtuelles Fahrzeug zu einem ersten Zeitpunkt veranschaulicht, bei dem ein oder mehrere virtuelle Sensoren eine Straßenoberfläche und/oder andere Bedingungen einer virtuellen Fahrumgebung „betrachten”;
  • 4 ein schematisches Diagramm ist, das eine Ausführungsform von Sensordaten veranschaulicht, die mit einer oder mehreren Kennzeichnungen gemäß der vorliegenden Erfindung versehen sind;
  • 5 ein schematisches Blockdiagramm ist, das eine Ausführungsform einer Kennzeichnung gemäß der vorliegenden Erfindung veranschaulicht; und
  • 6 ein schematisches Blockdiagramm von einer Ausführungsform eines Verfahrens zum Erzeugen von Trainingsdaten gemäß der vorliegenden Erfindung ist.
  • DETAILLIERTE BESCHREIBUNG
  • Es versteht sich ohne Weiteres, dass die Komponenten der vorliegenden Erfindung, wie sie hierin allgemein beschrieben und in den Figuren veranschaulicht sind, in einer großen Bandbreite unterschiedlicher Konfigurationen angeordnet und gestaltet sein können. Somit ist die folgende detailliertere Beschreibung der Ausführungsformen der Erfindung, wie sie in den Figuren dargestellt ist, nicht als den Geltungsumfang der beanspruchten Erfindung einschränkend, sondern als rein repräsentativ für bestimmte Beispiele von gegenwärtig in Erwägung gezogenen Ausführungsformen gemäß der Erfindung zu verstehen. Die gegenwärtig beschriebenen Ausführungsformen werden am besten unter Bezugnahme auf die Zeichnungen verstanden, in denen gleiche Teile durch gleiche Bezugszeichen bezeichnet sind.
  • In Bezug auf 1 stellt die reale Welt eine Reihe von Bedingungen und Hindernissen dar, die sich beständig ändern. Diese Realität erzeugt wesentliche Herausforderungen für fahrzeugbasierte Systeme, die eine autonome Steuerung bestimmter Fahrzeugfunktionen, Fahrzeugdynamik und/oder autonomes Fahren bereitstellen. Um diese Herausforderungen zu überwinden, kann ein Fahrzeug mit Sensoren und Computersystemen ausgestattet sein, die gemeinsam eine Umgebung erfassen, interpretieren und entsprechend darauf reagieren. Wichtige Komponenten derartiger Computersysteme können ein oder mehrere Algorithmen sein, die zum Interpretieren einer Datenausgabe durch verschiedene Sensoren verwendet werden, die sich an Bord derartiger Fahrzeuge befinden.
  • Zum Beispiel können mit bestimmten Algorithmen ein oder mehrere Ströme von Sensordaten analysiert werden, die einen Bereich (z. B. eine Straßenoberfläche) in der Nähe eines Fahrzeugs und die Wetterbedingungen (z. B. Art, Vorhandensein, Fehlen oder Menge eines Niederschlags) in diesem Bereich kennzeichnen. Andere Algorithmen können für ein Entscheiden, was auf Grundlage dieser Daten passieren soll, verantwortlich sein. Alle derartigen Algorithmen müssen gut entwickelt und gründlich getestet sein. In ausgewählten Ausführungsformen kann ein anfänglicher und wesentlicher Teil einer derartigen Entwicklung und derartiger Tests in einer virtuellen Umgebung realisiert werden. Dementsprechend kann ein System 10 gemäß der vorliegenden Erfindung Sensordaten 12 produzieren, die für ein Entwickeln, Testen und/oder Trainieren von verschiedenen Algorithmen geeignet sind.
  • Zum Beispiel kann ein System 10 in bestimmten Ausführungsformen eine Simulation ausführen, um Sensordaten 12 zu produzieren, die für eine sichtbasierte Niederschlagsdetektion unter Verwendung von Deep Learning geeignet sind, um zwischen „Regen-” und „Nicht-Regen-” (oder anderen „Wetter-” oder „Nicht-Wetter-”) Klassen oder Bedingungen zu unterscheiden. Um dies zu tun, kann ein System 10 als Hardware, Software oder eine Kombination davon ausgeführt sein.
  • In ausgewählten Ausführungsformen kann ein System 10 Computer-Hardware und Computer-Software einschließen. Die Computer-Hardware eines Systems 10 kann einen oder mehrere Prozessoren 14, einen Speicher 16, eine Benutzerschnittstelle 18, andere Hardware 20 oder Ähnliches oder eine Kombination oder Unterkombination davon einschließen. Der Speicher 16 kann mit dem einen oder den mehreren Prozessoren 14 wirkverbunden sein und die Computer-Software speichern. Dies kann den einen oder die mehreren Prozessoren 14 dazu befähigen, die Computer-Software auszuführen.
  • Eine Benutzerschnittstelle 18 eines Systems 10 kann einen Ingenieur, einen Techniker oder dergleichen dazu befähigen, verschiedene Aspekte eines Systems 10 auszuführen, anzupassen, zu steuern oder mit ihnen zu interagieren. In ausgewählten Ausführungsformen kann eine Benutzerschnittstelle 18 eines Systems 10 einen/eine/ein oder mehrere Tastenfelder, Tastaturen, Touchscreens, Zeigevorrichtungen oder Ähnliches oder eine Kombination oder Unterkombination davon einschließen.
  • In ausgewählten Ausführungsformen kann der Speicher 16 eines Computersystems 12 ein oder mehrere Fahrzeugbewegungsmodelle 22, ein oder mehrere Sensormodelle 24, eine oder mehrere virtuelle Fahrumgebungen 26 (z. B. eine virtuelle Umgebung, die unter Verwendung von dreidimensionalen Modellierungs- und Animationswerkzeugen erstellt wurde und verschiedene virtuelle Wetterbedingungen 28 enthält), ein Simulationsmodul 30, Sensordaten 12, andere Daten oder Software 32 oder Ähnliches oder Kombinationen oder Unterkombinationen davon speichern.
  • Ein Fahrzeugbewegungsmodell 22 kann ein Software-Modell sein, das für bestimmte Situationen die Bewegung der Karosserie eines entsprechenden Fahrzeugs definieren kann. In bestimmten Ausführungsformen kann ein derartiges Fahrzeugbewegungsmodell 22 ziemlich einfach sein. Zum Beispiel kann es einfach einen Weg definieren, der beim Durchfahren von einem oder mehreren virtuellen Sensoren (z. B. Sensoren, die durch ein oder mehrere Sensormodelle 24 definiert werden) durch eine virtuelle Fahrumgebung 26 einzuschlagen ist. In anderen Ausführungsformen kann ein Fahrzeugbewegungsmodell 22 robuster sein (z. B. eine höhere Genauigkeit in Bezug auf die Realität aufweisen). Zum Beispiel kann ein Fahrzeugbewegungsmodell 22 mit einer oder mehreren Fahrereingaben (z. B. ein oder mehrere Werte, die Elemente wie etwa Geschwindigkeit, Antriebsdrehmoment, Bremswirkung, Lenkeingabe oder Ähnliches oder Kombinationen oder Unterkombinationen davon charakterisieren) und/oder Informationen (z. B. Daten aus einer virtuellen Fahrumgebung 26) ausgestattet sein, die eine Straßenoberfläche charakterisieren. Mit diesen Eingaben und Informationen kann ein Fahrzeugbewegungsmodell 22 Bewegungszustände der Karosserie eines entsprechenden Fahrzeugs vorhersagen.
  • Die Parameter eines Fahrzeugbewegungsmodells 22 können auf jede geeignete Weise bestimmt oder spezifiziert werden. In ausgewählten Ausführungsformen können bestimmte Parameter eines Fahrzeugbewegungsmodells 22 von früheren Kenntnissen der mechanischen Eigenschaften (z. B. Geometrien, Trägheit, Steifigkeit, Dämpfungskoeffizienten usw.) eines entsprechenden Fahrzeugs in der realen Welt abgeleitet werden.
  • Wie anerkannt, können sich die Parameter bei verschiedenen Fahrzeugen unterscheiden. Dementsprechend kann ein Fahrzeugbewegungsmodell 22 in ausgewählten Ausführungsformen fahrzeugspezifisch sein. Das heißt, dass ein Fahrzeugbewegungsmodell 22 dazu geeignet sein kann, die Karosseriedynamik eines ersten Fahrzeugs (z. B. eines bestimmten Sportwagens) zu modellieren, während ein anderes Fahrzeugbewegungsmodell 22 dazu geeignet sein kann, die Karosseriedynamik eines zweiten Fahrzeugs (z. B. eines bestimmten Pick-Ups) zu modellieren.
  • Ein Sensormodell 24 kann ein Software-Modell sein, das für bestimmte Situationen oder „Betrachtungen” die Ausgabe eines entsprechenden Sensors für die reale Welt definieren oder vorhersagen kann. In bestimmten Ausführungsformen kann ein Sensormodell 24 mit Informationen (z. B. Daten aus einer virtuellen Fahrumgebung 26) ausgestattet sein, die verschiedene Betrachtungen einer Straßenoberfläche oder von einem oder mehreren Bereichen in ihrer Nähe, Umgebungswetterbedingungen oder Ähnliches charakterisieren. Mit diesen Informationen kann ein Sensormodell 24 das produzieren, was ein tatsächlicher Sensor ausgeben würde, wenn diese Betrachtungen ihm in der realen Welt präsentiert werden würden.
  • In ausgewählten Ausführungsformen können interessierende Sensoren der realen Welt Wandler umfassen, die einige Eigenschaften einer Umgebung erfassen oder detektieren und eine entsprechende Ausgabe (z. B. ein elektrisches oder optisches Signal) bereitstellen, die diese Eigenschaft definiert. Zum Beispiel können ein oder mehrere interessierende Sensoren der realen Welt Kameras (z. B. Digitalkameras) sein. Kameras können verwendet werden, um Bilder einer Fahrumgebung zu produzieren. Derartige Bilder können analysiert werden, um etwas über diese Fahrumgebung zu lernen.
  • Ein Sensormodell 24 kann die Ausgabe modellieren, die durch einen beliebigen interessierenden Sensor der realen Welt produziert wird. Wie anerkannt, können sich die Ausgaben bei verschiedenen Sensoren der realen Welt unterscheiden. Dementsprechend kann ein Sensormodell 24 in ausgewählten Ausführungsformen sensorspezifisch sein. Das heißt, dass ein Sensormodell 24 dazu geeignet sein kann, die Ausgabe eines ersten Sensors (z. B. einer bestimmten nach vorn gerichteten Digitalkamera) zu modellieren, während ein anderes Sensormodell 24 dazu geeignet sein kann, die Ausgabe eines zweiten Sensors (z. B. einer bestimmten nach hinten gerichteten Digitalkamera) zu modellieren.
  • Ein Sensormodell 24 kann eine Ausgabe von jedem geeigneten Format produzieren. Ein Sensormodell 24 kann in ausgewählten Ausführungsformen ein Signal (z. B. ein digitales Signal) ausgeben, das ein entsprechender Sensor der realen Welt produzieren würde. Zum Beispiel kann ein Sensormodell 24, das einer Kamera entspricht oder eine Kamera modelliert, Bilddaten in Form eines Videos oder einem oder mehreren Standbildern ausgeben, die eine Vielzahl von Frames definieren oder bilden.
  • Ein Simulationsmodul 30 kann programmiert werden, um eine virtuelle Fahrumgebung 26, ein Fahrzeugbewegungsmodell 22 und ein oder mehrere Sensormodelle 24 zu verwenden, um eine Ausgabe (z. B. Sensordaten 12) zu produzieren, die das modelliert, was durch einen oder mehrere entsprechende Sensoren der realen Welt ausgegeben werden würde, wenn der eine oder die mehreren Sensoren der realen Welt an einem Fahrzeug (z. B. das Fahrzeug, das durch das Fahrzeugbewegungsmodell 22 modelliert wird) befestigt wäre(n), das in einer tatsächlichen Fahrumgebung wie (z. B. im Wesentlichen oder genau übereinstimmend mit) der virtuellen Fahrumgebung 26 gefahren wird.
  • In Bezug auf 2 kann eine virtuelle Fahrumgebung 26 in ausgewählten Ausführungsformen eine virtuelle Fahroberfläche 34 (z. B. die Straße 34) und verschiedene virtuelle Wetterbedingungen 28 umfassen, die in Bezug auf die Fahroberfläche 34 an verschiedenen Stellen, mit verschiedenen Intensitäten (z. B. Niederschlagsintensität oder Menge an Niederschlag) oder Ähnlichem positioniert sind. Die virtuellen Wetterbedingungen 28 in einer virtuellen Fahrumgebung 26 können einem oder mehreren optischen Merkmalen 36 entsprechen, die mit verschiedenen Arten oder Graden von Wetter in der realen Welt verknüpft sind, oder diese einschließen.
  • Zum Beispiel können bestimmte optische Merkmale 36 mit einer „Regen-” Bedingung verknüpft sein. Derartige Merkmale 36 können einen bedeckten Himmel, Tropfen an der Außenseite einer Fensterfläche (z. B. Tropfen, die für eine Kamera sichtbar sind, die sich in einem Fahrgastraum oder einem Führerhaus eines Fahrzeugs befindet), die relative Dunkelheit in der Umgebung unter Berücksichtigung der Tageszeit, Straßenbefeuchtung, eine verdeckte Sicht (z. B. Unvermögen entfernte Objekte zu erkennen oder zu sehen), Fahrzeugscheinwerfer, die zu einer Tageszeit eingeschaltet sind, zu der sie normalerweise nicht eingeschaltet sind, „glänzende” oder spiegelnde Straßenoberflächen, Spuren, die für kurze Zeit zurückbleiben, nachdem die Reifen eines Fahrzeugs (z. B. des betreffenden Fahrzeugs oder von einem oder mehreren anderen Fahrzeugen vor dem betreffenden Fahrzeug) das Wasser auf einer Straßenoberfläche geteilt haben oder Ähnliches oder eine beliebige Kombination oder Unterkombination davon einschließen. Andere optische Merkmale können mit einer „Nicht-Regen-” Bedingung verknüpft sein. Derartige Merkmale 36 können einen klaren Himmel, das Fehlen von Tropfen an einer Außenseite einer Fensterfläche, normale Lichtverhältnisse in der Umgebung unter Berücksichtigung der Tageszeit, eine gute Sicht (z. B. Fähigkeit entfernte Objekte zu erkennen oder zu sehen), matte Straßenoberflächen, das Fehlen von Fahrzeugspuren oder Ähnliches oder eine beliebige Kombination oder Unterkombination davon einschließen. Andere optische Merkmale 36 können anderen Formen des Niederschlags oder anderen Wetterbedingungen entsprechen. Dementsprechend kann eine virtuelle Fahrumgebung 26 verschiedene optische Merkmale 36 umfassen, die in Bezug auf die Fahroberfläche 34, andere Fahrzeuge, die auf der Fahroberfläche 34 fahren oder Ähnliches an verschiedenen Stellen, in verschiedenen Ausrichtungen oder Ähnlichem positioniert sind, um das Vorhandensein, das Fehlen oder den Grad (d. h. die Menge) von Regen, Schnee, einem anderen Niederschlag, Nebel oder Ähnlichem zu simulieren.
  • In ausgewählten Ausführungsformen kann eine virtuelle Fahrumgebung 26 zahlreiche Strukturen einschließen, die wetterunabhängig sind, wie etwa Straßenoberflächen 34 (z. B. einspurige, mehrspurige Ausführungsformen und/oder Ausführungsformen mit gegenüberliegenden Fahrspuren von verschiedenen Konstruktionsarten), Hügel, Ebenen, Konfigurationen am Straßenrand, Kurven, Kreuzungen oder Ähnliches oder Kombinationen davon mit und ohne andere Fahrzeuge. Zusätzlich dazu kann eine virtuelle Fahrumgebung 26 zahlreiche Wetterbedingungen 28 auf Grundlage der Art, des Vorhandenseins, des Fehlens oder des Grads von einem oder mehreren optischen Merkmalen 36 bereitstellen, unterstützen oder simulieren. Die Anzahl der Permutationen zwischen zahlreichen wetterunabhängigen Strukturen und zahlreichen Wetterbedingungen 28 kann signifikant sein. Dementsprechend kann ein System 10 gemäß der vorliegenden Erfindung innerhalb eines kurzen Zeitraums virtuelle Sensordaten 12 in großen Mengen produzieren. Zudem können relevante Parameter, wie etwa Wetterbedingungen 28 (z. B. Niederschlag, Nebel oder Ähnliches oder ein diesbezügliches Fehlen), die Tageszeit, die Umgebungsbeleuchtung, die relative Position und die relativen Anordnungen der wetterunabhängigen Strukturen und Ähnliches, in den aufgezeichneten Sensordaten 12 randomisiert werden, um einen vielfältigen Datensatz mit minimaler Verzerrung zu gewährleisten.
  • Ein derartiger vielfältiger Datensatz kann verwendet werden, um einen oder mehrere Algorithmen, die korrekt und wiederholbar eine Fahrumgebung in der realen Welt interpretieren, zu entwickeln und/oder zu trainieren. Wenn diese Algorithmen in der realen Welt implementiert sind, können sie die nachteiligen Wirkungen in Verbindung mit verschiedenen Wetterbedingungen und bei Anwendungen mit oder ohne Fahrer verringern. Zum Beispiel kann ein derartiger Datensatz verwendet werden, um ein Klassifizierungssystem zu entwickeln, das gegenüber einem bestimmten Merkmal agnostisch ist, das in dem einen oder den mehreren Bildern enthalten ist, die von einer Kamera aufgenommen wurden. Das heißt, dass ein neuronales Netzwerk, das im Hinblick auf einen derartigen Datensatz trainiert wurde, ein Bild nicht zwangsläufig nach einem bestimmten Merkmal absuchen muss. Vielmehr kann das neuronale Netzwerk beurteilen, ob ein Bild in seiner Gesamtheit für eine Klasse oder eine andere bezeichnender ist.
  • Dieser Agnostizismus kann deutliche Vorteile bereitstellen. Zum Beispiel kann es diese Art des Trainings ermöglichen, dass jedes Bild, das in der realen Welt aufgenommen wurde, so untersucht oder analysiert wird, „wie es ist.” Das heißt, dass möglicherweise kein Bedarf für eine Bildvorverarbeitung besteht, damit ein Klassifizierungssystem in der realen Welt korrekt funktioniert. Ferner ist nicht zwangsläufig eine zusätzliche Kalibrierung erforderlich. Zudem kann ein neuronales Netzwerk in der realen Welt ein oder mehrere Bilder ohne Rücksicht darauf klassifizieren, ob eine Kamera, die das eine oder die mehreren Bilder aufgenommen hat, an einer exakten Stelle fixiert war, mehr zum Himmel zeigte, mehr zur Straße zeigte, mehr nach vorn zeigte, mehr nach hinten zeigte oder Ähnliches.
  • Zum Beispiel können eine oder mehrere Kameras (z. B. eine oder mehrere nach vorn gerichtete Kamera, eine oder mehrere nach hinten gerichtete Kameras oder eine Kombination davon) einen Bereich um ein Fahrzeug in der realen Welt überwachen. Dementsprechend können Algorithmen, die unter Verwendung virtueller Daten 12 entwickelt und/oder trainiert werden, die unter Verwendung von Systemen und/oder Verfahren gemäß der vorliegenden Erfindung erzeugt werden, verwendet werden, um Wetterbedingungen (z. B. Regen und Nicht-Regen, Schnee und Nicht-Schnee, Nebel und Nicht-Nebel oder Ähnliches) zu erkennen und geeignete Antworten oder Vorbereitungen zu implementieren.
  • In Bezug auf 3 kann ein Simulationsmodul 30 durch eine Reihe von Berechnungen effektiv eine oder mehrere virtuelle Kameras 38 (z. B. eine oder mehrere virtuelle, nach vorn gerichtete Kameras 38a, eine oder mehrere virtuelle, nach hinten gerichtete Kameras 38b oder eine Kombination davon) durch eine virtuelle Fahrumgebung 26 durchfahren, die eine oder mehrere Wetterbedingungen 28 definiert oder einschließt. In ausgewählten Ausführungsformen kann dies ein Manipulieren eines Betrachtungspunkts von bestimmten virtuellen Kameras 38 in Bezug auf die virtuelle Fahrumgebung 26 während eines solchen Durchfahrens einschließen. Konkreter kann es, während eines solchen Durchfahrens, das Bewegen von einer oder mehreren virtuellen Kameras 38 in Bezug auf die virtuelle Fahrumgebung 26, so wie durch ein Fahrzeugbewegungsmodell 22 vorgegeben, das die Bewegung eines entsprechenden virtuellen Fahrzeugs 40 modelliert, das in der virtuellen Fahrumgebung 26 fährt und die eine oder die mehreren virtuellen Kameras 38 trägt, einschließen.
  • In ausgewählten Ausführungsformen kann ein Simulationsmodul 30 drei Koordinatensysteme berücksichtigen, um die Bewegung der einen oder der mehreren virtuellen Kameras 38 korrekt zu erfassen. Das erste kann ein globales Trägheitskoordinatensystem innerhalb einer virtuellen Fahrumgebung 26 sein. Das zweite kann ein ungestörtes Koordinatensystem eines virtuellen Fahrzeugs 40 sein, das durch ein oder entsprechend einem Fahrzeugbewegungsmodell 22 definiert wird. Dies kann das Koordinatensystem einer „ungestörten” Version des virtuellen Fahrzeugs 40 sein, bei dem seine „xy”-Ebene parallel zu einer Bodenebene (z. B. eine geschätzte, virtuelle Bodenebene) definiert sein kann. Das dritte kann ein gestörtes Koordinatensystem des Fahrzeugs 40 sein. Dies kann das Koordinatensystem des virtuellen Fahrzeugs 40 sein, das Roll-, Neige-, Hebe- und Gierbewegungen ausführt, die fahrerinduziert (z. B. verursacht durch virtualisiertes Lenken, Bremsen, Beschleunigen oder Ähnliches) und/oder straßeninduziert (z. B. verursacht durch eine virtuelle Fahrumgebung 26) oder auf andere virtuelle Störungen (z. B. Wetterbedingungen 28, wie etwa Seitenwind, Radschlupf aufgrund von Traktionsverlust oder Ähnliches) zurückzuführen sind. Ein Simulationsmodul 30 kann zwei oder mehr dieser verschiedenen Koordinatensysteme verwenden, um zu bestimmen, welche Betrachtungen oder Bedingungen zu welchen virtuellen Kameras 38 während eines Simulationsprozesses gehören.
  • Das heißt, dass in der realen Welt die Kameras, die durch ein oder mehrere Sensormodelle 24 modelliert werden, an Bord eines entsprechenden Fahrzeugs getragen werden können. Bestimmte derartige Kameras können gesichert sein, um sich mit der Karosserie eines entsprechenden Fahrzeugs zu bewegen. Dementsprechend kann sich die Betrachtung, die von derartigen Kameras geprüft wird, in Abhängigkeit von der Ausrichtung des entsprechenden Fahrzeugs in Bezug auf die Umgebung verändern.
  • Um derartige Auswirkungen in einem System 10 gemäß der vorliegenden Erfindung zu simulieren, kann ein Simulationsmodul 30 die Stelle und Ausrichtung von einer oder mehreren virtuellen Kameras 38 (z. B. Sensoren, die durch ein oder mehrere entsprechende Sensormodelle 24 modelliert werden) innerhalb eines Koordinatensystems berücksichtigen, das dem virtuellen Fahrzeug 40 (z. B. das Fahrzeug, das durch das Fahrzeugbewegungsmodell 22 modelliert wird) entspricht. Ein Simulationsmodul 30 kann auch berücksichtigen, wie ein derartiges fahrzeugbasiertes Koordinatensystem in der Form von Roll-, Neige-, Hebe- und Gierbewegungen, die durch ein Fahrzeugbewegungsmodell 22 auf Grundlage von virtualisierten Fahrereingaben, durch eine virtuelle Fahrumgebung 26 definierte Straßeneingaben und Ähnliches vorhergesagt werden, gestört wird. Dementsprechend kann ein Simulationsmodul 30 für jeden simulierten interessierenden Zeitpunkt eine Stelle und Ausrichtung einer bestimmten virtuellen Kamera 38 in Bezug auf eine virtuelle Fahrumgebung 26 berechnen und die Betrachtung innerhalb der virtuellen Fahrumgebung 26, die zu diesem Zeitpunkt durch diese bestimmte virtuelle Kamera 38 zu erfassen ist, bestimmen.
  • Für einen ersten simulierten Zeitpunkt kann ein Simulationsmodul 30 die Betrachtungen der virtuellen Fahrumgebung 26, die zu diesem Zeitpunkt durch eine oder mehrere virtuelle Kameras 38 zu erfassen sind, bestimmen. Ein Simulationsmodul 30 kann dann von einem oder mehreren geeigneten Sensormodellen 24 Ausgaben erhalten, die diese Betrachtungen charakterisieren. Dieser Prozess kann für einen zweiten simulierten Zeitpunkt, einen dritten simulierten Zeitpunkt und so weiter wiederholt werden. Dementsprechend kann ein Simulationsmodul 30 durch das Fortschreiten von einem Zeitpunkt zum nächsten einen oder mehrere Datenströme erhalten, die jeweils das modellieren, was der Ausgabe von der einen oder den mehreren Kameras 38 entsprechen würde, wenn sie und die entsprechende virtuelle Fahrumgebung 26 real wären.
  • In Bezug auf 4 und 5 können unterschiedliche Datenströme 42 in ausgewählten Ausführungsformen die Ausgabe von unterschiedlichen Kameras 38 darstellen. Zum Beispiel kann ein erster Datenstrom 42a die Ausgabe von einer virtuellen Kamera 38a darstellen, die so befestigt ist, dass sie an dem vorderen Teil eines virtuellen Fahrzeugs 40 nach vorn gerichtet ist und ein zweiter Datenstrom 42b kann die Ausgabe von einer virtuellen Kamera 38b darstellen, die so befestigt ist, dass sie an dem hinteren Teil eines virtuellen Fahrzeugs 40 nach hinten gerichtet ist. Zusammen können die verschiedenen Datenströme 42, welche die Sensordaten 12 für einen bestimmten Durchlauf bilden (z. B. ein bestimmtes virtuelles Durchfahren eines bestimmten virtuellen Fahrzeugs 40 durch eine bestimmte virtuelle Fahrumgebung 26), eine oder mehrere (z. B. alle oder weniger als alle) Eingaben darstellen oder erfassen, die ein bestimmter Algorithmus (z. B. der sichtbasierte Regendetektionsalgorithmus, der entwickelt oder getestet wird) in der realen Welt verwenden würde.
  • In bestimmten Ausführungsformen oder Situationen kann ein Simulationsmodul 30 Sensordaten 12 mit einer oder mehreren Kennzeichnungen 44 koppeln. Jede derartige Kennzeichnung 44 kann „Ground-Truth” entsprechend der virtuellen Fahrumgebung 26 bereitstellen. In ausgewählten Ausführungsformen kann die in einer oder mehreren Kennzeichnungen 44 enthaltene Ground-Truth dazu verwendet werden, die Leistung eines Algorithmus beim Klassifizieren von Wetterbedingungen in einer überwachten Lernmethode zu quantifizieren.
  • Zum Beispiel können eine oder mehrere Kennzeichnungen 44 einen oder mehrere Wettercodes 46 (z. B. binäre Werte, die Regen gegenüber Nicht-Regen, das Vorhandensein oder Fehlen von einer oder mehreren anderen Wetterbedingungen 28 oder Kombinationen davon bezeichnen), andere Informationen 48 oder Ähnliches einschließen, was verschiedenen Wetterbedingungen 28 entspricht, auf die ein virtuelles Fahrzeug 40 in einem bestimmten Durchlauf trifft. Die Kennzeichnungen 44 können mit bestimmten Teilen (z. B. einem oder mehreren Frames) der Datenströme 42 verknüpft, verbunden oder anderweitig assoziiert sein. Dementsprechend kann die Ground-Truth, die einer bestimmten Wetterbedingung 28 oder Ähnlichem entspricht, mit dem Teil von einem oder mehreren Datenströmen 42 verknüpft sein, welche die Wahrnehmung von einer oder mehreren virtuellen Kameras 38 dieser Wetterbedingung 28 wiedergeben. In ausgewählten Ausführungsformen kann dies durch das Verknüpfen von unterschiedlichen Kennzeichnungen 44a, 44b mit unterschiedlichen Teilen von einem oder mehreren Datenströmen 42 erreicht werden.
  • In Bezug auf 6 kann ein System 10 einen Prozess 52 gemäß der vorliegenden Erfindung unterstützen, ermöglichen oder ausführen. In ausgewählten Ausführungsformen kann ein derartiger Prozess 52 mit dem Erzeugen 54 einer virtuellen Fahrumgebung 26, einschließend verschiedene Wetterbedingungen 28, beginnen. Die virtuelle Fahrumgebung 26 kann dann in einem Simulationsprozess mit einer oder mehreren virtuellen Kameras 38 durchfahren 56 werden.
  • Wenn die virtuelle Fahrumgebung 26 mit einer oder mehreren virtuellen Kameras 38 durchfahren 56 wird, kann sich der Betrachtungspunkt der einen oder der mehreren virtuellen Kameras 38 in Bezug auf die virtuelle Fahrumgebung 26 mit jedem Schritt ändern. In ausgewählten Ausführungsformen kann der Betrachtungspunkt von einer oder mehreren virtuellen Kameras 38 in Bezug auf die virtuelle Fahrumgebung 26 so manipuliert 58 werden, wie durch ein Fahrzeugbewegungsmodell 22 vorgegeben. Dementsprechend können die verschiedenen Betrachtungen, die durch die eine oder die mehreren virtuellen Kameras 38 zu verschiedenen simulierten Zeitpunkten zu erfassen sind, erhalten 60 oder identifiziert 60 werden.
  • Die verschiedenen Betrachtungen, die so erhalten 60 oder identifiziert 60 werden, können durch oder über entsprechende Sensormodelle 24 analysiert werden, um Daten 12 zu erhalten 62, die widerspiegeln, was eine entsprechende Digitalkamera in der realen Welt, welche die verschiedenen Betrachtungen in der realen Welt betrachtet, produziert oder ausgegeben hätte. In ausgewählten Ausführungsformen können diese Daten 12 mit Ground-Truth-Informationen gekennzeichnet 64 werden, um bestimmte überwachte Lernmethoden zu unterstützen oder zu ermöglichen.
  • Somit können eine oder mehrere virtuelle Kameras 38 in Bezug auf eine virtuelle Fahrbahn 34 gemäß ihrer geplanten Positionierung an einem Fahrzeug in der realen Welt positioniert werden. Die virtuellen Kameras 38 können dann entlang der virtuellen Fahrbahn 34 zu Stellen bewegt werden, an denen sie eine oder mehrere Wetterbedingungen 28 beobachten können. Der eine oder die mehreren virtuellen Kameras 38 können dann Daten 42 produzieren, während sie sich durch die virtuelle Umgebung 26 bewegen.
  • Für jeden Zeitschritt von produzierten Daten 42 können die Kennzeichnungen 44 automatisch bereitgestellt werden, um Ground-Truth-Informationen über die Wetterbedingungen aufzuzeichnen. Zum Beispiel kann jeder Frame (z. B. eigenständiges Bild) von produzierten Daten 42 einen entsprechenden Eintrag in einer Protokolldatei aufweisen, welcher die Ground-Truth dafür darlegt oder identifiziert, ob eine Regenbedingung (oder eine andere Niederschlags- oder Wetterbedingung) in diesem Frame vorliegt (z. B. aufgezeichnet wurde).
  • Sobald erzeugt, können die Sensordaten 12 gemäß der vorliegenden Erfindung dazu verwendet werden, verschiedene Algorithmen zu trainieren oder zu testen. In bestimmten Ausführungsformen kann der die Ground-Truth-Informationen bildende Teil der Sensordaten 12 dazu verwendet werden, einen oder mehrere Algorithmen (z. B. einen oder mehrere Wahrnehmungsalgorithmen) unter Verwendung von überwachtem Lernen zu trainieren oder einen bestehenden Algorithmus zu testen und dessen Leistung zu quantifizieren.
  • Zum Beispiel können die Sensordaten 12 verwendet werden, um einen oder mehrere Algorithmen zu trainieren oder zu testen, die von Fahrzeugsystemen verwendet werden, um auf die nachteiligen Wirkungen, die mit verschiedenen Wetterbedingungen in der realen Welt verknüpft sind, vorzubereiten oder diese zu verringern. Dementsprechend können die Sensordaten 12 verwendet werden, um einen oder mehrere Algorithmen dazu zu trainieren, Regen, Schnee, Nebel oder andere Wetterbedingungen zu erkennen, dem Wetter entsprechende Antworten oder Vorbereitungen zu implementieren, wenn derartige Bedingungen wahrgenommen werden, oder Ähnliches oder Kombinationen oder Unterkombinationen davon (oder ihre diesbezügliche Fähigkeit zu testen).
  • Das Ablaufdiagramm in 6 veranschaulicht die Architektur, die Funktionalität und den Betrieb einer möglichen Implementierung eines Systems, Verfahrens und Computerprogrammprodukts gemäß einer Ausführungsform der vorliegenden Erfindung. In dieser Hinsicht kann jeder Block in dem Ablaufdiagramm ein Modul, ein Segment oder einen Abschnitt eines Codes darstellen, das bzw. der eine oder mehrere ausführbare Anweisungen zum Implementieren der spezifizierten logischen Funktion(en) umfasst. Es wird außerdem festgestellt, dass jeder Block der Ablaufdiagrammdarstellung sowie Kombinationen der Blöcke in der Ablaufdiagrammdarstellung von Hardware-basierten Systemen für spezielle Zwecke, welche die spezifizierten Funktionen oder Aktionen ausführen oder Kombinationen aus Hardware für spezielle Zwecke und Computeranweisungen implementiert werden können.
  • Außerdem ist anzumerken, dass in einigen alternativen Implementierungen die in den Blöcken vermerkten Funktionen in einer anderen als der in der Figur dargestellten Reihenfolge auftreten können. In bestimmten Ausführungsformen können zwei Blöcke, die aufeinanderfolgend gezeigt sind, eigentlich im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal in umgekehrter Reihenfolge ausgeführt werden, je nach der beteiligten Funktionalität. Alternativ können bestimmte Schritte oder Funktionen ausgelassen werden, wenn sie nicht benötigt werden.
  • In der vorangehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil hiervon bilden und in denen spezifische Implementierungen, in denen die Offenbarung durchgeführt werden kann, veranschaulichend gezeigt werden. Es versteht sich, dass andere Implementierungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Patentschrift auf „eine Ausführungsform”, „ein Ausführungsbeispiel”, „ausgewählte Ausführungsformen”, „bestimmte Ausführungsformen” usw. geben an, dass die beschriebene Ausführungsform oder die beschriebenen Ausführungsformen ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft einschließen kann bzw. können, jedoch nicht jede Ausführungsform notwendigerweise diese(s) bestimmte Merkmal, Struktur oder Eigenschaft einschließen muss. Zudem beziehen sich derartige Wendungen nicht zwangsläufig auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, es im Bereich des Fachwissens des Fachmanns liegt, ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Implementierungen der hierin offenbarten Systeme, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware einschließt, wie etwa zum Beispiel einen oder mehrere Prozessoren und einen oder mehrere Systemspeicher, wie hierin erörtert. Implementierungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen einschließen. Bei solchen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Implementierungen der Offenbarung beispielsweise und nicht einschränkend mindestens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) schließen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs”) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM”), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium ein, das verwendet werden kann, um die gewünschten Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Implementierung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk” ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere (entweder festverdrahtete, drahtlose oder eine Kombination aus festverdrahteter oder drahtloser) Kommunikationsverbindung an einem Computer bereitgestellt oder auf diesen übertragen werden, zeigt der Computer die Verbindung dementsprechend als ein Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen einschließen, die dazu verwendet werden können, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden sollten ebenfalls im Umfang computerlesbarer Medien eingeschlossen sein.
  • Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung an einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen auszuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Implementierung der Ansprüche offenbart.
  • Der Fachmann kann nachvollziehen, dass die Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, einschließend einen Armaturenbrett-Fahrzeugcomputer, PCs, Desktop-Computer, Laptops, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und Ähnliches. Diese Offenbarung kann außerdem in Umgebungen mit verteilten Systemen durchgeführt werden, in denen sowohl lokale Computersysteme als auch Remotecomputersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
  • Ferner können die hier beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel programmiert sein, um eines oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Ausdrücke werden in der Beschreibung und den Ansprüchen in Bezug auf bestimmte Systemkomponenten verwendet. Der Fachmann wird zu schätzen wissen, dass auf Komponenten durch verschiedene Bezeichnungen Bezug genommen werden kann. In diesem Dokument soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um zumindest einen Teil ihrer Funktionen auszuführen. Ein Sensor kann zum Beispiel Computercode einschließen, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung einschließen, die durch den Computercode gesteuert wird. Diese Vorrichtungsbeispiele werden hier zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht der Einschränkung dienen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen implementiert werden, wie es einem einschlägigen Fachmann bekannt ist.
  • Zumindest einige Ausführungsformen der Offenbarung wurden Computerprogrammprodukten zugeführt, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hier beschrieben zu arbeiten.
  • Während vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Für Personen, die in dem entsprechenden Fachbereich qualifiziert sind, wird ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung durch keines der vorstehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich in Übereinstimmung mit den folgenden Ansprüchen und ihren Äquivalenten definiert sein. Die vorstehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie ist nicht als umfassend anzusehen und soll die Offenbarung nicht auf die spezifische offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist anzumerken, dass eine beliebige oder alle der vorangehend genannten alternativen Implementierungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridimplementierungen der Offenbarung zu bilden.

Claims (15)

  1. Verfahren, umfassend: Durchfahren, durch ein Computersystem, von einer oder mehreren virtuellen Kameras über einer virtuellen Straßenoberfläche in einer Simulation; Aufzeichnen, durch das Computersystem, einer Vielzahl von Frames von Bilddaten, die Signalen entsprechen, die von der einen oder den mehreren virtuellen Kameras während des Durchfahrens ausgegeben werden; und Umwandeln, durch das Computersystem, der Vielzahl von Frames zu Trainingsdaten, indem jeder Frame davon mit Ground-Truth-Daten gekennzeichnet wird, die anzeigen, ob darin ein virtueller Niederschlag vorhanden ist.
  2. Verfahren nach Anspruch 1, wobei das Kennzeichnen Kennzeichnen jedes Frames der Vielzahl von Frames mit Ground-Truth-Daten umfasst, die anzeigen, ob darin virtueller Regen vorhanden ist.
  3. Verfahren nach Anspruch 2, wobei das Durchfahren Bewegen von jeder der einen oder der mehreren virtuellen Kameras in Bezug auf die virtuelle Straßenoberfläche, wie durch ein Fahrzeugbewegungsmodell vorgegeben, das die Bewegung von einem Fahrzeug modelliert, das die eine oder die mehreren virtuellen Kameras trägt und auf der virtuellen Straßenoberfläche fährt, umfasst.
  4. Verfahren nach Anspruch 1, wobei das Durchfahren Bewegen von jeder der einen oder der mehreren virtuellen Kameras in Bezug auf die virtuelle Straßenoberfläche, wie durch ein Fahrzeugbewegungsmodell vorgegeben, das die Bewegung von einem Fahrzeug modelliert, das die eine oder die mehreren virtuellen Kameras trägt und auf der virtuellen Straßenoberfläche fährt, umfasst.
  5. Verfahren nach Anspruch 4, wobei die eine oder die mehreren virtuellen Kameras eine nach vorn gerichtete Kamera umfassen, die positioniert ist, um einen Teil der virtuellen Straßenoberfläche vor dem Fahrzeug zu erfassen.
  6. Verfahren nach Anspruch 4, wobei die eine oder die mehreren virtuellen Kameras eine nach hinten gerichtete Kamera umfassen, die positioniert ist, um einen Teil der virtuellen Straßenoberfläche hinter dem Fahrzeug zu erfassen.
  7. Verfahren nach Anspruch 1, ferner umfassend das Verwenden der Trainingsdaten, um ein künstliches neuronales Netzwerk zum Unterscheiden zwischen fotografischen Daten, die einer Niederschlagsbedingung entsprechen, und fotografischen Daten, die der Nicht-Niederschlagsbedingung entsprechen, zu trainieren.
  8. Verfahren zum Erzeugen von Trainingsdaten, wobei das Verfahren Folgendes umfasst: Ausführen, durch ein Computersystem, einer Simulation umfassend Durchfahren von einer oder mehreren virtuellen Kameras über einer virtuellen Straßenoberfläche und durch mindestens eine virtuelle Niederschlagsbedingung und mindestens eine virtuelle Nicht-Niederschlagsbedingung, die von der einen oder den mehreren virtuellen Kameras erfasst werden können, und Bewegen, während des Durchfahrens, von jeder der einen oder der mehreren virtuellen Kameras in Bezug auf die virtuelle Straßenoberfläche, wie durch ein Fahrzeugbewegungsmodell vorgegeben, das Bewegung von einem Fahrzeug modelliert, das auf der virtuellen Straßenoberfläche fährt, während es die eine oder die mehreren virtuellen Kameras trägt; und Aufzeichnen, durch das Computersystem, von Bilddaten, welche die mindestens eine virtuelle Niederschlagsbedingung und die mindestens eine virtuelle Nicht-Niederschlagsbedingung charakterisieren, wobei die Bilddaten einer Signalausgabe von der einen oder den mehreren virtuellen Kameras während des Durchfahren entsprechen.
  9. Verfahren nach Anspruch 8, wobei die Bilddaten eine Vielzahl von Frames umfassen.
  10. Verfahren nach Anspruch 9, ferner umfassend Umwandeln, durch das Computersystem, der Vielzahl von Frames zu Trainingsdaten, indem jeder Frame davon mit Ground-Truth-Daten gekennzeichnet wird, die anzeigen, ob darin die virtuelle Niederschlags- oder die virtuelle Nicht-Niederschlagsbedingung vorhanden ist.
  11. Verfahren nach Anspruch 3 oder 10, ferner umfassend das Verwenden der Trainingsdaten, um ein künstliches neuronales Netzwerk zum Unterscheiden zwischen fotografischen Daten, die einer Regenbedingung entsprechen, und fotografischen Daten, die der Nicht-Regenbedingung entsprechen, zu trainieren.
  12. Verfahren nach Anspruch 3 oder 10, wobei die eine oder die mehreren virtuellen Kameras eine nach vorn gerichtete Kamera umfassen, die positioniert ist, um einen Teil der virtuellen Straßenoberfläche vor dem Fahrzeug zu erfassen.
  13. Verfahren nach Anspruch 3 oder 10, wobei die eine oder die mehreren virtuellen Kameras eine nach hinten gerichtete Kamera umfassen, die positioniert ist, um einen Teil der virtuellen Straßenoberfläche hinter dem Fahrzeug zu erfassen.
  14. Computersystem umfassend: einen oder mehrere Prozessoren; Speicher, der mit dem einen oder den mehreren Prozessoren wirkverbunden ist; und wobei der Speicher Folgendes speichert: eine virtuelle Fahrumgebung, die programmiert ist, um mindestens eine virtuelle Niederschlagsbedingung und mindestens eine virtuelle Nicht-Niederschlagsbedingung einzuschließen, ein erstes Softwaremodell, das dazu programmiert ist, eine Kamera zu modellieren, ein zweites Softwaremodell, das dazu programmiert ist, ein Fahrzeug zu modellieren, und ein Simulationsmodul, das dazu programmiert ist, die virtuelle Fahrumgebung, das erste Softwaremodell und das zweite Softwaremodell dazu zu verwenden, eine Ausgabe zu erzeugen, die das modelliert, was durch die Kamera ausgegeben werden würde, wenn die Kamera an dem Fahrzeug befestigt wäre und das Fahrzeug in einer tatsächlichen Fahrumgebung, die der virtuellen Fahrumgebung entspricht, gefahren wäre.
  15. System nach Anspruch 14, wobei die Kamera eine nach vorn gerichtete Kamera, die positioniert ist, um einen Teil der virtuellen Fahrumgebung vor dem Fahrzeug zu erfassen oder eine nach hinten gerichtete Kamera umfasst, die positioniert ist, um einen Teil der virtuellen Fahrumgebung hinter dem Fahrzeug zu erfassen.
DE102017115393.4A 2016-07-14 2017-07-10 Virtuelles sensordatenerzeugungssystem und verfahren zum unterstützen der entwicklung von sichtbasierten regendetektionsalgorithmen Pending DE102017115393A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/210,670 2016-07-14
US15/210,670 US10521677B2 (en) 2016-07-14 2016-07-14 Virtual sensor-data-generation system and method supporting development of vision-based rain-detection algorithms

Publications (1)

Publication Number Publication Date
DE102017115393A1 true DE102017115393A1 (de) 2018-01-18

Family

ID=59676731

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017115393.4A Pending DE102017115393A1 (de) 2016-07-14 2017-07-10 Virtuelles sensordatenerzeugungssystem und verfahren zum unterstützen der entwicklung von sichtbasierten regendetektionsalgorithmen

Country Status (6)

Country Link
US (1) US10521677B2 (de)
CN (1) CN107622527B (de)
DE (1) DE102017115393A1 (de)
GB (1) GB2554507A (de)
MX (1) MX2017009218A (de)
RU (1) RU2017124994A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018220865A1 (de) * 2018-12-03 2020-06-18 Psa Automobiles Sa Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt sowie Kraftfahrzeug

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10521677B2 (en) * 2016-07-14 2019-12-31 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of vision-based rain-detection algorithms
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10802450B2 (en) 2016-09-08 2020-10-13 Mentor Graphics Corporation Sensor event detection and fusion
WO2018176000A1 (en) * 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10481044B2 (en) * 2017-05-18 2019-11-19 TuSimple Perception simulation for improved autonomous vehicle control
US10726248B2 (en) * 2018-02-01 2020-07-28 Ford Global Technologies, Llc Validating gesture recognition capabilities of automated systems
GB201803599D0 (en) * 2018-03-06 2018-04-18 Morpheus Labs Ltd Behaviour models for autonomous vehicle simulators
EP3769507A4 (de) 2018-03-23 2022-03-30 Netradyne, Inc. Kartierung von verkehrsgrenzen
US11315015B2 (en) * 2018-06-08 2022-04-26 Technip France Continuous learning of simulation trained deep neural network model
CN110874610B (zh) * 2018-09-01 2023-11-03 图森有限公司 一种使用机器学习的人类驾驶行为建模系统及方法
EP3850539B1 (de) * 2018-09-13 2024-05-29 NVIDIA Corporation Verarbeitung von tiefen neuronalen netzen zur sensorblindheitsdetektion in autonomen maschinenanwendungen
JP7157320B2 (ja) * 2018-09-19 2022-10-20 日本電信電話株式会社 学習データ生成装置、学習データ生成方法およびプログラム
CN109556832B (zh) * 2018-11-30 2024-01-26 吉林大学 一种具有天气模拟功能的相机在环测试试验台
CN110334382B (zh) * 2019-05-09 2020-11-17 电子科技大学 一种基于循环神经网络的汽车车窗起雾状况预测方法
US11391257B2 (en) * 2019-07-23 2022-07-19 Ford Global Technologies, Llc Power supply during vehicle startup
US11529886B2 (en) 2019-07-23 2022-12-20 Ford Global Technologies, Llc Power supply during vehicle off state
KR20210047477A (ko) * 2019-10-22 2021-04-30 현대자동차주식회사 오류 모니터링을 이용한 운전자 숙련용 주행 모델 생성 장치 및 방법

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2199588A1 (en) * 1997-03-10 1998-09-10 Efrem Hoffman Hierarchical data matrix pattern recognition and identification system
KR20000013675A (ko) 1998-08-12 2000-03-06 밍 루 차량 주행 모의 실험장치
US20060018565A1 (en) * 2004-07-26 2006-01-26 Davidson Scott W System and method for infrared sensor simulation
KR100709401B1 (ko) 2005-09-15 2007-04-18 현대모비스 주식회사 차선이탈경보시스템용 힐스 장치 및 그의 시험 방법
US20080062167A1 (en) * 2006-09-13 2008-03-13 International Design And Construction Online, Inc. Computer-based system and method for providing situational awareness for a structure using three-dimensional modeling
DE102009029318A1 (de) * 2009-09-09 2011-03-17 Ford Global Technologies, LLC, Dearborn Verfahren und Vorrichtung zur Erprobung einer Fahrzeugkonstruktion
KR101135186B1 (ko) * 2010-03-03 2012-04-16 광주과학기술원 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR20120064474A (ko) 2010-12-09 2012-06-19 엘지이노텍 주식회사 카메라 모듈을 이용한 우적 감지 장치 및 방법
CN103917989B (zh) * 2011-09-07 2019-05-28 法雷奥开关和传感器有限责任公司 用于检测车辆风挡上的雨滴的方法和摄像头组件
CN102880755B (zh) * 2012-09-25 2014-10-08 河海大学 一种极端降水的定量预测方法及系统
US20140181630A1 (en) * 2012-12-21 2014-06-26 Vidinoti Sa Method and apparatus for adding annotations to an image
KR101419170B1 (ko) 2013-01-22 2014-07-11 주식회사 현대케피코 힐스를 이용한 차량 환경 신뢰성 시험 장치
US9752889B2 (en) * 2013-03-14 2017-09-05 Robert Bosch Gmbh Time and environment aware graphical displays for driver information and driver assistance systems
CN203275098U (zh) 2013-05-24 2013-11-06 东莞中山大学研究院 电动汽车电驱动与驾驶员双在环模拟测试系统
US9145139B2 (en) * 2013-06-24 2015-09-29 Google Inc. Use of environmental information to aid image processing for autonomous vehicles
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9630631B2 (en) * 2013-10-03 2017-04-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US20150203107A1 (en) * 2014-01-17 2015-07-23 Ford Global Technologies, Llc Autonomous vehicle precipitation detection
JP6489408B2 (ja) * 2014-01-30 2019-03-27 パナソニックIpマネジメント株式会社 表示制御プログラム、表示制御装置および表示装置
DE102014209197A1 (de) * 2014-05-15 2015-11-19 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zum Erkennen von Niederschlag für ein Kraftfahrzeug
US20150363654A1 (en) * 2014-06-12 2015-12-17 GM Global Technology Operations LLC Vision-based wet road surface detection using mirrored and real images
CN105323456B (zh) * 2014-12-16 2018-11-30 维沃移动通信有限公司 用于拍摄装置的图像预览方法、图像拍摄装置
US20160210383A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual autonomous response testbed
US20160210382A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Autonomous driving refined in virtual environments
US20160210775A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
US20160314224A1 (en) * 2015-04-24 2016-10-27 Northrop Grumman Systems Corporation Autonomous vehicle simulation system
US10229231B2 (en) * 2015-09-11 2019-03-12 Ford Global Technologies, Llc Sensor-data generation in virtual driving environment
US20170083794A1 (en) * 2015-09-18 2017-03-23 Ford Global Technologies, Llc Virtual, road-surface-perception test bed
US20170109458A1 (en) * 2015-10-16 2017-04-20 Ford Global Technologies, Llc Testbed for lane boundary detection in virtual driving environment
US10176634B2 (en) * 2015-10-16 2019-01-08 Ford Global Technologies, Llc Lane boundary detection data generation in virtual environment
US10013617B2 (en) * 2015-12-03 2018-07-03 Gm Global Technology Operations Snow covered path of travel surface condition detection
US9740944B2 (en) * 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
US10346564B2 (en) * 2016-03-30 2019-07-09 Toyota Jidosha Kabushiki Kaisha Dynamic virtual object generation for testing autonomous vehicles in simulated driving scenarios
US10049284B2 (en) * 2016-04-11 2018-08-14 Ford Global Technologies Vision-based rain detection using deep learning
US10356217B2 (en) * 2016-06-21 2019-07-16 The Boeing Company Virtual weather generation
US20180004210A1 (en) * 2016-07-01 2018-01-04 nuTonomy Inc. Affecting Functions of a Vehicle Based on Function-Related Information about its Environment
US11210436B2 (en) * 2016-07-07 2021-12-28 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of algorithms facilitating navigation of railway crossings in varying weather conditions
US10521677B2 (en) * 2016-07-14 2019-12-31 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of vision-based rain-detection algorithms
US10427645B2 (en) * 2016-10-06 2019-10-01 Ford Global Technologies, Llc Multi-sensor precipitation-classification apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018220865A1 (de) * 2018-12-03 2020-06-18 Psa Automobiles Sa Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt sowie Kraftfahrzeug
DE102018220865B4 (de) * 2018-12-03 2020-11-05 Psa Automobiles Sa Verfahren zum Trainieren wenigstens eines Algorithmus für ein Steuergerät eines Kraftfahrzeugs, Computerprogrammprodukt sowie Kraftfahrzeug

Also Published As

Publication number Publication date
GB2554507A (en) 2018-04-04
RU2017124994A (ru) 2019-01-15
US10521677B2 (en) 2019-12-31
GB201711155D0 (en) 2017-08-23
CN107622527B (zh) 2023-05-23
MX2017009218A (es) 2018-09-10
CN107622527A (zh) 2018-01-23
US20180018527A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
DE102017115393A1 (de) Virtuelles sensordatenerzeugungssystem und verfahren zum unterstützen der entwicklung von sichtbasierten regendetektionsalgorithmen
DE112020002602T5 (de) Multi-objektverfolgung mit hilfe von korrelationsfiltern in videoanalyseanwendungen
DE102016119129A1 (de) Prüfstand zur Fahrspurgrenzenerfassung in virtueller Fahrumgebung
EP2043045B1 (de) Verfahren zur Objektverfolgung
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
DE102016123887A1 (de) Virtuelle sensordatenerzeugung zur radanschlagdetektion
DE112019001605T5 (de) Trainieren, testen und verifizieren von autonomen maschinen unter verwendung simulierter umgebungen
DE102017115049A1 (de) Virtuelles sensordatenerzeugungssystem und verfahren zur unterstützung der entwicklung von algorithmen, die ein befahren von bahnübergängen unter variierenden wetterbedingungen ermöglichen
DE102017129075A1 (de) Parkplatznavigationssystem und -verfahren
EP3438901A1 (de) Testfahrtszenario-datenbanksystem für realitätsnahe virtuelle testfahrtszenarien
DE102019127229A1 (de) System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes
DE102018101465A1 (de) Trainieren eines automatischen ampelerkennungsmoduls unter verwendung simulierter bilder
DE102017105628A1 (de) Verfahren und system zur virtuellen sensordatenerzeugung mit tiefen-ground-truth-annotation
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE102017115197A1 (de) Erzeugung von virtuellen sensordaten für die erfassung von polleraufnahmen
DE112016006616T5 (de) Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm
DE102019127190A1 (de) System und verfahren zum beurteilen des bekanntseins eines gelernten fahrzeugdatensatzes eines fahrerassistenzsystems
DE102018128563A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und einen vergleich
DE102018215055A1 (de) Verfahren zum Bestimmen einer Spurwechselangabe eines Fahrzeugs, ein computerlesbares Speichermedium und ein Fahrzeug
DE102021124810A1 (de) Neuronales fahrzeugnetzwerk
DE102017108255A1 (de) Parallele detektion von primitiven in einer szene unter verwendung eines rundum-kamerasystems
DE102017108248A1 (de) Strassenmerkmalserkennung mit einem fahrzeugkamerasystem
DE102022200743A1 (de) Systeme und Verfahren zur Bestimmung eines befahrbaren Raums
DE102019208733A1 (de) Verfahren und Generator zum Erzeugen von gestörten Eingangsdaten für ein neuronales Netz
DE112022002791T5 (de) Systeme und verfahren zur partikelfilterverfolgung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0019000000

Ipc: G16Z0099000000

R012 Request for examination validly filed