DE102016100492A1 - Virtueller autonomer Antwortprüfstand - Google Patents

Virtueller autonomer Antwortprüfstand Download PDF

Info

Publication number
DE102016100492A1
DE102016100492A1 DE102016100492.8A DE102016100492A DE102016100492A1 DE 102016100492 A1 DE102016100492 A1 DE 102016100492A1 DE 102016100492 A DE102016100492 A DE 102016100492A DE 102016100492 A1 DE102016100492 A1 DE 102016100492A1
Authority
DE
Germany
Prior art keywords
virtual
vehicle
virtual environment
data
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016100492.8A
Other languages
English (en)
Inventor
Arthur Alaniz
Ashley Elizabeth Micks
Vidya Nariyambut murali
Sneha Kadetotad
Harpreetsingh Banvait
Jinesh J. Jain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102016100492A1 publication Critical patent/DE102016100492A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D18/00Testing or calibrating apparatus or arrangements provided for in groups G01D1/00 - G01D15/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/048Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles a model being viewed and manoeuvred from a remote point
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Geometry (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Motorcycle And Bicycle Frame (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Eine Computervorrichtung beinhaltet eine Prozessorschaltung und ein Datenspeichermedium und ist programmiert zum Empfangen einer Benutzereingabe, die eine Fahrzeugsteueraktion darstellt, die mit Betrieb eines virtuellen Fahrzeugs in einer virtuellen Umwelt assoziiert ist, zum virtuellen Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt gemäß der Fahrzeugsteueraktion, zum Sammeln von Daten virtueller Sensoren und zum Verarbeiten der gesammelten Daten virtueller Sensoren.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der vorläufigen US-Anmeldung mit der Serien-Nr. 62/106,074 mit dem Titel “VIRTUAL SENSOR TESTBED”, eingereicht am 21. Januar 2015, deren Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird. Diese Anmeldung bezieht sich auf die US-Ser.-Nr. 14/945,744 mit dem Titel “AUTONOMOUS DRIVING IN REFINED VIRTUAL ENVIRONMENTS”, eingereicht am 19. November 2015 und die US-Ser.-Nr. 14/945,791 mit dem Titel “VIRTUAL SENSOR TESTBED”, eingereicht am 19. November 2015.
  • HINTERGRUND
  • Von autonomen Fahrzeugen wird erwartet, dass sie gewisse Schilder entlang des Straßenrandes interpretieren. Zum Beispiel wird erwartet, dass autonome Fahrzeuge an Stopp-Schildern anhalten. Eine Möglichkeit für autonome Fahrzeuge, Schilder zu interpretieren, ist es, die autonomen Fahrzeuge durch Sammeln von Daten realexistierender Sensoren zu "lehren", wie ein bestimmtes Schild aussieht. Sammeln von Daten realexistierender Sensoren beinhaltet das Aufsetzen physischer Tests oder das Herumfahren mit Sensoren, um relevante Daten zu sammeln. Im Zusammenhang mit dem Identifizieren von Straßenbeschilderung kann das Sammeln von Sensordaten das Sammeln von tausenden von Bildern verschiedener Straßenbeschilderungen beinhalten. Gemäß dem "Manual on Uniform Traffic Control Devices" gibt es mehr als 500 US-weit zugelassene Verkehrsschilder.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht ein autonomes Beispielfahrzeug mit einem System, das zum Empfangen und Verarbeiten von Daten virtueller Sensoren programmiert ist.
  • 2 ist ein Blockschaltbild von Beispielkomponenten des autonomen Fahrzeugs.
  • 3A veranschaulicht eine Beispielansicht einer virtuellen Umwelt, die dafür programmiert ist, Daten virtueller Sensoren zu erzeugen.
  • 3B veranschaulicht eine weitere Beispielansicht einer virtuellen Umwelt, die dafür programmiert ist, Daten virtueller Sensoren zu erzeugen.
  • 4 ist ein Prozess-Flussdiagramm eines Beispielprozesses, der implementiert sein kann, um ein oder mehr virtuelle Fahrzeug-Subsysteme in einer virtuellen Umwelt zu testen und/oder zu trainieren.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Entwicklung eines autonomen Fahrzeugs beinhaltet das Testen autonomer Prozesse relativ zu der Fahrumwelt. Diverse Testszenarien werden verwendet, um die autonomen Prozesse sorgfältig zu validieren. Eine virtuelle Umwelt wird als eine Alternative zum Testen in der realexistierenden Welt offenbart. Die offenbarte virtuelle Umwelt kann ein virtuelles Testbett für autonome Fahrprozesse beinhalten. Sensormodelle und Bildverarbeitungs-Software können mit virtuellen Umwelten und dynamischen, interaktiven Fahrszenarien zusammenschalten. Virtuelle Tests können eine breitgefächerte und sogfältige Validierung von Fahrprozessen liefern, um das Testen mit realen Fahrzeugen zu ergänzen und vorzubereiten. Verglichen mit Tests in der realexistierenden Welt können virtuelle Tests hinsichtlich Zeit, Geld und Ressourcen billiger sein. Bei simulierten Fahrszenarien können damit minimale Risiken verbunden sein, die in Tests in der real existierenden Welt gefährlich oder schwer zu simulieren sein würden, was es leichter macht, in einer großen Bandbreite und einer großen Anzahl von Szenarien zu testen und dieses früh im Prozess des Entwickelns autonomer Steuerungen durchzuführen. Das Werkzeug kann während der Entwicklung von Sensorfusionsprozessen für autonomes Fahren durch Integrieren von Kameras mit Lidar-, Radar- und Ultraschall-Sensoren und dem Bestimmen der Fahrzeugreaktion auf die interpretierten Sensordaten verwendet werden.
  • Die Prozesse können Sensordaten aufnehmen und Schlüsselelemente der virtuellen Fahrzeugumgebung identifizieren, die unter Verwendung der Probedaten entworfen und verfeinert werden müssen. Zum Beispiel können Klassifizierer, die Straßenbeschilderung identifizieren, unter Verwendung von Bildern dieser Schilder trainiert werden müssen, einschließlich einer großen und breitgefächerten Menge von Bildern, um Datensatzbeeinflussung zu vermeiden und richtige Detektion unter einer Bandbreite von Bedingungen zu fördern. In der virtuellen Umwelt können tausende von simulierten Kamerabildern in Sekunden erstellt werden, was diesen Ansatz zu einem effektiven Verfahren des Minimierens von Beeinflussung und des Optimierens von Klassifizierer-Leistung macht. Es würde auch möglich sein, eine Datenbank zu erstellen, die alle Verkehrsschilder in den USA repräsentiert.
  • Ein Kaskaden-Klassifizierer, der in der OpenCV-C++-Bibliothek gefunden werden kann, kann dazu verwendet werden, eine Vielzahl von Straßenbeschilderungen zu identifizieren. Bilder dieser Schilder können in der virtuellen Umwelt mit zufälliger Orientierung, zufälligem Abstand von der Kamera, zufälligen Beschattungs- und Beleuchtungsbedingungen und teilweiser Verdeckung erzeugt werden. Ein maschineller Lernprozess kann diese Bilder zusammen mit der Position und der Umrahmung der Verkehrszeichen in ihnen als Eingaben aufnehmen, unter Verwendung von Bildverarbeitungstechniken Merkmale erzeugen und Klassifizierer trainieren, jeden Schildertyp zu erkennen. Ähnliche Prozesse können implementiert werden, um Detektions- und Erkennungsprozesse für andere Sensortypen zu entwickeln.
  • Die gezeigten Elemente können viele verschiedene Formen annehmen und mehrere und/oder alternative Komponenten und Ausstattungen beinhalten. Die veranschaulichten Beispielkomponenten sind nicht dafür gedacht, beschränkend zu sein. Tatsächlich können zusätzliche oder alternative Komponenten und/oder Implementierungen verwendet werden.
  • Wie in 1 veranschaulicht, beinhaltet das autonome Fahrzeug 100 ein Fahrzeugsystem 105, das dafür programmiert ist, Daten virtueller Sensoren zu empfangen, die von einer Computervorrichtung 110 in einer virtuellen Umwelt erzeugt werden. Die Computervorrichtung 110 kann dafür programmiert sein, die virtuelle Umwelt zu simulieren. Die virtuelle Umwelt kann mehrere Fahrszenarien präsentieren. Jedes Fahrszenario kann eine Straße mit verschiedenen Objekten auf der Straße oder entlang der Straßenränder beinhalten. Zum Beispiel kann das Fahrszenario andere Fahrzeuge, bewegend oder geparkt, Straßenschilder, Bäume, Büsche, Gebäude, Fußgänger oder dergleichen beinhalten. Die verschiedenen Fahrszenarien können ferner verschiedene Wetterbedingungen wie etwa Regen, Schnee, Nebel usw. beinhalten. Darüber hinaus können die Fahrszenarien verschiedene Typen von Straßen oder Gelände definieren. Beispiele dafür können Autobahnen, ebenerdige Straßen, Bergstraßen oder dergleichen beinhalten.
  • Die Computervorrichtung 110, die ein Datenspeichermedium 110A und eine Prozessorschaltung 110B enthalten kann, kann dafür programmiert sein, ein virtuelles Fahrzeug zu simulieren, das durch die virtuelle Umwelt fährt. Die Simulation kann virtuelle Sensoren beinhalten, die Daten virtueller Sensoren sammeln, die auf den in der virtuellen Umwelt präsentierten Bedingungen basieren. Die Computervorrichtung 110 kann dafür programmiert sein, die Daten virtueller Sensoren zu sammeln, so als würden sie in einem echten Fahrzeug gesammelt. Beispielsweise kann die Computervorrichtung 110 den virtuellen Sensor mit einer Ansicht der virtuellen Umwelt simulieren, als sei der virtuelle Sensor auf einem echten Fahrzeug. Somit können die Daten virtueller Sensoren Bedingungen der realexistierenden Welt relativ zum Detektieren von z.B. Schildern reflektieren. Unter Bedingungen der realexistierenden Welt kann die Sicht eines Fahrzeugsensors auf ein Schild zum Beispiel teilweise oder vollständig von einem Objekt, wie etwa einem anderen Fahrzeug oder einem Baum blockiert werden. Durch Simulieren der virtuellen Sensoren mit der Sicht als wären sie auf einem echten Fahrzeug kann der virtuelle Sensor virtuelle Daten sammeln, gemäß der Sicht, die der Sensor unter realexistierenden Bedingungen haben würde.
  • Die Ausgabe der Computervorrichtung 110 kann Daten virtueller Sensoren beinhalten, die für Testzwecke, Trainingszwecke oder beides verwendet werden können und kann die Sensordaten repräsentieren, die von virtuellen Sensoren als Ergebnis virtuellen Fahrens eines virtuellen Fahrzeugs durch die virtuelle Umwelt gesammelt werden. Die Daten virtueller Sensoren können letztendlich dafür verwendet werden, Kalibrierungsdaten zu erzeugen, die dann zu dem Fahrzeugsystem 105 hochgeladen werden können, so dass ein oder mehr Subsysteme des autonomen Fahrzeugs 100 (ein realexistierendes Fahrzeug) gemäß den Daten virtueller Sensoren kalibriert werden können, die während des Testens oder Trainierens gesammelt werden, wenn das virtuelle Fahrzeug durch die virtuelle Umwelt gefahren wird. Die Kalibrierungsdaten können von derselben oder einer anderen Computervorrichtung 110 erzeugt werden und können von mehreren Sätzen von Daten virtueller Sensoren erzeugt werden. Darüber hinaus können die während mehreren Simulationen erzeugten Daten virtueller Sensoren zusammengefasst und verarbeitet werden, um die Kalibrierungsdaten zu erzeugen. Daher muss die Computervorrichtung 110 nicht sofort nach dem Sammeln der Daten virtueller Sensoren irgendwelche Kalibrierungsdaten ausgeben. Mit den Kalibrierungsdaten können die realexistierenden Fahrzeug-Subsysteme "trainiert" werden, um gewisse Szenarien zu identifizieren, gemäß den in der virtuellen Umwelt simulierten Szenarien, wie sie durch die Daten virtueller Sensoren repräsentiert werden.
  • Obwohl als eine Limousine veranschaulicht, kann das Fahrzeug 100 jedwedes Personen- oder Nutzfahrzeug beinhalten, wie etwa ein Auto, einen Laster, einen SUV, ein Crossover-Fahrzeug, einen Transporter, einen Kleintransporter, ein Taxi, einen Bus usw. Ferner kann das autonome Fahrzeug 100 dafür ausgelegt sein, in einem vollautonomen (z.B. fahrerlosen) Modus oder einem teilautonomen Modus zu arbeiten.
  • 2 veranschaulicht Beispielkomponenten des autonomen Fahrzeugs 100. Wie gezeigt beinhaltet das autonome Fahrzeug 100 eine Benutzerschnittstellen-Vorrichtung 115, ein Navigationssystem 120, eine Kommunikations-Schnittstelle 125, Autonom-Fahr-Sensoren 130, eine Autonom-Modus-Steuerung 135 und eine Verarbeitungsvorrichtung 140.
  • Die Benutzerschnittstellen-Vorrichtung 115 kann dafür ausgelegt oder programmiert sein, einem Benutzer, wie etwa einem Fahrer, während des Betriebs des autonomen Fahrzeugs 100, Informationen zu präsentieren. Darüber hinaus kann die Benutzerschnittstellen-Vorrichtung 115 dafür ausgelegt oder programmiert sein, Benutzereingaben zu empfangen. Somit kann die Benutzerschnittstellen-Vorrichtung 115 im Passagierabteil des autonomen Fahrzeugs 100 positioniert sein. Bei manchen möglichen Ansätzen kann die Benutzerschnittstellen-Vorrichtung 115 einen berührungsempfindlichen Anzeigebildschirm beinhalten.
  • Das Navigationssystem 120 kann dafür ausgelegt oder programmiert sein, eine Position des autonomen Fahrzeugs 100 zu bestimmen. Das Navigationssystem 120 kann einen Global-Positoning-System(GPS)-Empfänger beinhalten, der dafür ausgelegt oder programmiert ist, die Position des autonomen Fahrzeugs 100 relativ zu Satelliten oder erdbasierten Sendemasten zu triangulieren. Das Navigationssystem 120 kann deshalb für drahtlose Kommunikation ausgelegt oder programmiert sein. Das Navigationssystem 120 kann ferner dafür ausgelegt oder programmiert sein, Routen von einem aktuellen Standort zu einem ausgewählten Ziel zu entwickeln sowie ein Landkarte anzuzeigen und Fahranweisungen zu dem ausgewählten Ziel zu präsentieren, z.B. über die Benutzerschnittstellen-Vorrichtung 115. In manchen Fällen kann das Navigationssystem 120 die Route nach einer Benutzerpräferenz entwickeln. Beispiele für Benutzerpräferenzen können das Maximieren der Kraftstoffwirtschaftlichkeit, das Verkürzen der Reisezeit, das Fahren der kürzesten Entfernung oder dergleichen umfassen.
  • Die Kommunikations-Schnittstelle 125 kann dafür ausgelegt oder programmiert sein, drahtgebundene und/oder drahtlose Kommunikation zwischen den Komponenten des autonomen Fahrzeugs 100 und anderen Vorrichtungen, wie etwa einem Fernserver oder sogar einem anderen Fahrzeug zu erleichtern, wenn z.B. ein Fahrzeug-zu-Fahrzeug Kommunikationsprotokoll verwendet wird. Die Kommunikations-Schnittstelle 125 kann dafür ausgelegt oder programmiert sein, Nachrichten zu empfangen von einem und Nachrichten zu senden an einen Mast eines Mobilfunkanbieters und von dem/an das Telematik-Dienstliefernetz (SDN), das mit dem Fahrzeug assoziiert ist, das wiederum eine Kommunikation mit einer mobilen Vorrichtung eines Benutzers herstellt, wie etwa einem Mobiltelefon, einem Tablet-Computer, einem Laptop-Computer, einer Fernbedienung oder irgendeiner anderen elektronischen Vorrichtung, die für drahtlose Kommunikation über einen Zweit- oder denselben Mobilfunkanbieter ausgelegt ist. Mobilfunkkommunikation zu dem Telematik-Transceiver über das SDN kann auch von einer mit dem Internet verbundenen Vorrichtung, wie etwa einem PC, einem Laptop, einem Notebook oder einem über WiFi verbundenen Telefon, aufgebaut werden. Die Kommunikations-Schnittstelle 125 kann auch dafür ausgelegt oder programmiert sein, direkt von dem autonomen Fahrzeug 100 mit der Fernvorrichtung des Benutzers oder irgendeiner anderen Vorrichtung zu kommunizieren, die irgendeine Anzahl von Kommunikationsprotokollen, wie etwa Bluetooth®, Niederenergie-Bluetooth® oder WiFi verwendet. Ein Beispiel für ein Fahrzeug-zu-Fahrzeug Kommunikationsprotokoll kann z.B. das dedizierte Kurzreichweiten-Kommunikations(DSRC)-Protokoll beinhalten. Dementsprechend kann die Kommunikations-Schnittstelle 125 dafür ausgelegt oder programmiert sein, Nachrichten von einem/an einen Fernserver und/oder von anderen/an andere Fahrzeuge zu empfangen und/oder zu senden.
  • Die Autonom-Fahr-Sensoren 130 können eine beliebige Anzahl von Vorrichtungen beinhalten, die dafür ausgelegt oder programmiert sind, Signale zu erzeugen, die dem autonomen Fahrzeug 100 helfen, während das autonome Fahrzeug 100 in dem autonomen (d.h. fahrerlosen) Modus betrieben wird. Beispiele für Autonom-Fahr-Sensoren 130 können einen Radar-Sensor, einen Lidar-Sensor, einen visuellen Sensor oder dergleichen beinhalten. Die Autonom-Fahr-Sensoren 130 helfen dem autonomen Fahrzeug 100 die Straße und die Fahrzeugumgebung zu "sehen" und/oder verschiedene Hindernisse anzugehen, während das Fahrzeug in dem autonomen Modus betrieben wird. In einer möglichen Implementierung können die Autonom-Fahr-Sensoren 130 gemäß den virtuellen Fahrdatenausgaben von der Rechenvorrichtung 110 als ein Ergebnis der von den vis-à-vis der virtuellen Umwelt durchgeführten Simulationen kalibriert werden.
  • Die Autonom-Modus-Steuerung 135 kann dafür ausgelegt oder programmiert sein, ein oder mehr Subsysteme 145 zu steuern, während das Fahrzeug in dem autonomen Modus betrieben wird. Beispiele für Subsysteme 145, die von der Autonom-Modus-Steuerung 135 gesteuert werden, können ein Bremsen-Subsystem, ein Fahrwerk-Subsystem, ein Lenkungs-Subsystem und ein Antriebsstrang-Subsystem beinhalten. Die Autonom-Modus-Steuerung 135 kann ein oder mehr beliebige dieser Subsysteme 145 durch Ausgeben von Signalen steuern, um mit diesen Subsystemen 145 assoziierte Einheiten zu steuern. Die Autonom-Modus-Steuerung 135 kann die Subsysteme 145 zumindest teilweise basierend auf Signalen steuern, die von den Autonom-Fahr-Sensoren 130 erzeugt werden. In einem möglichen Ansatz kann die Autonom-Modus-Steuerung 135 gemäß den virtuellen Fahrdatenausgaben von der Rechenvorrichtung 110 als ein Ergebnis der von den vis-à-vis der virtuellen Umwelt durchgeführten Simulationen kalibriert werden.
  • Die Verarbeitungsvorrichtung 140 kann dafür programmiert sein, die virtuellen Datensignale, die von der Computervorrichtung 110 erzeugt werden, zu empfangen und zu verarbeiten. Verarbeiten der virtuellen Datensignale kann z.B. das Erzeugen von Kalibrierungs-Einstellungen für die Autonom-Fahr-Sensoren 130, die Autonom-Modus-Steuerung 135 oder beide beinhalten. Die Kalibrierungs-Einstellungen können die Autonom-Fahr-Sensoren 130 und die Autonom-Modus-Steuerung 135 "lehren", die Umwelt um das autonome Fahrzeug 100 besser zu interpretieren.
  • 3A3B veranschaulichen Beispielansichten einer virtuellen Umwelt 150, die dafür programmiert ist, Daten virtueller Sensoren zu erzeugen. 3A zeigt eine virtuelle Ansicht eines Bord-Sensors, wie etwa einer Kamera. Mit anderen Worten gesagt, zeigt 3A wie die Kamera die virtuelle Umwelt 150 "sehen" würde. Dagegen zeigt 3B eine mögliche „Experimentator“-Ansicht. Die „Experimentator"-Ansicht ermöglicht es der Kamera oder einem anderen Sensor, außerhalb des virtuellen Fahrzeugs, im Fahrersitz des virtuellen Fahrzeugs oder sonst irgendwo relativ zu dem virtuellen Fahrzeug positioniert zu sein.
  • Mit den in der virtuellen Umwelt 150 präsentierten interaktiven virtuellen Szenarien kann der Benutzer das virtuelle Fahrzeug durch die virtuelle Umwelt 150 fahren, um Schilder- und Hindernis-Detektionsprozesse zu testen, autonome Fahrprozessleistung zu beobachten oder mit dem Umschalten zwischen autonomen und manuellen Fahrmodi zu experimentieren. Die virtuelle Umwelt 150 kann, wie in 3A gezeigt in Echtzeit die Ausgabe z.B. des Verkehrsschild-Detektionsklassifizierers präsentieren, die den Standort und den Durchmesser von jedem detektierten Schild anzeigt.
  • Die Computervorrichtung 110 integriert eine virtuelle Fahrumwelt, die unter Verwendung von drei-dimensionalen Modellierungs- und Animationswerkzeugen erschaffen wird, mit Sensormodellen, um die Daten virtueller Sensoren in einer relativ kurzen Zeitdauer in großen Mengen zu erstellen. Relevante Parameter, wie etwa Beleuchtung und Verkehrsschild-Orientierung, im Falle einer Schilder-Detektion, können in den aufgezeichneten Daten zufällig angeordnet werden, um eine breitgefächerte Datenmenge mit minimaler Beeinflussung sicherzustellen. Ferner können gewisse Systeme der virtuellen Fahrzeuge innerhalb der virtuellen Umwelt gesteuert werden. Zum Beispiel können die Drosselklappe, die Bremse, die Lenkung des virtuellen Fahrzeugs und andere Fahrereingaben gesteuert werden. Dadurch kann die Computervorrichtung 110 testen wie ein real existierendes autonomes Fahrzeug auf die verschiedenen Bedingungen reagieren kann, die über die virtuelle Umwelt präsentiert werden. Mit anderen Worten gesagt, kann die Rechenvorrichtung 110 unter Verwendung des virtuellen Fahrzeugs in der virtuellen Umwelt simulieren, wie ein realexistierendes Fahrzeug reagieren würde, wenn ihm Sensordaten präsentiert würden, die z.B. den oben erörterten Daten virtueller Sensoren ähnlich sind.
  • Verglichen mit dem Sammeln von Daten einer realexistierenden Welt kann das Sammeln virtueller Daten hinsichtlich Zeit, Geld und Ressourcen günstiger sein. In nur wenigen Minuten können tausende von virtuellen Bildern eines gegebenen Verkehrszeichentyps empfangen und analysiert werden. Das Sammeln einer vergleichbaren Anzahl von Daten der realexistierenden Welt würde Stunden benötigen.
  • 4 ist ein Prozessflussdiagramm eines Beispielprozesses 400 zum Testen und/oder Trainieren von einem oder mehr Autonom-Fahr-Sensoren 130 gemäß den Daten virtueller Sensoren, die während des Befahrens der virtuellen Umwelt gesammelt werden.
  • Bei Block 405 kann die Computervorrichtung 110 die Simulation der virtuellen Umwelt laden. Die Simulation der virtuellen Umwelt kann Elemente beinhalten, die für ein autonomes Fahrzeug während Betriebs in einer realexistierenden Welt sichtbar sein würden. Beispielsweise kann die virtuelle Umwelt virtuelle Straßen, Bäume, Schilder, Verkehrssteuerungs-Vorrichtungen (wie Ampeln), Brücken und andere Infrastruktur-Vorrichtungen beinhalten, wie etwa Straßenbeleuchtung, andere Fahrzeuge, Fußgänger, Gebäude, Gehwege, Bordsteine usw. Darüber hinaus kann die virtuelle Umwelt dafür programmiert sein, unterschiedliche Straßen und Strukturen zu präsentieren. Beispielsweise können die verschiedenen Straßen eine Kreuzung, eine Landstraße, eine Wohnstraße mit geparkten Autos, ein städtisches Gebiet, ein ländliches Gebiet, eine Autobahn, eine Auffahrspur, eine Abfahrspur, einen Tunnel, eine Brücke, eine unbefestigte oder Schotterstraße, Straßen mit verschiedenen Krümmungen und Straßenordnungen, ebene Straßen, Straßen mit Schlaglöchern, eine Straße, die über Schienen führt usw. beinhalten. Ferner kann die virtuelle Umwelt verschiedene Wetter- und Beleuchtungsbedingungen simulieren. Beispielsweise kann die virtuelle Umwelt Regen, Schnee, Eis usw. simulieren sowie Lichtverhältnisse bei Morgendämmerung, Tageszeit, Abend, Abenddämmerung und Nacht.
  • Bei Block 410 kann die Computervorrichtung 110 Benutzereingaben empfangen, die verschiedene Testparameter auswählen. Die Testparameter können z.B. eine Benutzereingabe enthalten, die den Typ von Fahrbedingungen auswählt. Die Benutzereingabe kann demnach eine Auswahl der Wetterbedingungen, der Beleuchtungsbedingungen oder von beiden (z.B. Regen in der Abenddämmerung) beinhalten sowie eine Auswahl beliebiger anderer Faktoren, einschließlich des Straßen- oder Gebietstyps (z.B. Kreuzung, Landstraße, städtisches Gebiet, ländliches Gebiet usw.).
  • Bei Block 415 kann die Computervorrichtung 110 die virtuelle Umwelt gemäß den bei Block 410 empfangenen Benutzereingaben erzeugen. Die virtuelle Umwelt kann auf einem Anzeigebildschirm 155 präsentiert werden. Die virtuelle Umwelt kann gemäß der oben erörterten „Experimentator“-Ansicht oder der Ansicht von einem oder mehr der Autonom-Fahrzeug-Sensoren 130 präsentiert werden, wie etwa einer Bordkamera. Darüber hinaus kann der Anzeigebildschirm die virtuelle Umwelt mit verschiedenen Bedingungen präsentieren, die bei Block 405 ausgewählt wurden, einschließlich Wetterbedingungen, Beleuchtungsbedingungen oder dergleichen. Bei manchen möglichen Ansätzen kann das Erzeugen der virtuellen Umwelt das Erzeugen zufälliger Testparameter beinhalten. Beispiel für zufällige Testparameter können z.B. eine zufällige Beleuchtungsbedingung, eine zufällige Wetterbedingung, eine zufällige Schilderplatzierung, eine zufällige Schilderausrichtung usw. beinhalten.
  • Bei Block 420 kann die Computervorrichtung 110 das virtuelle Fahrzeug durch die virtuelle Umwelt fahren. Das Fahren durch die virtuelle Umwelt kann das Bestimmen eines Endpunktes, über z.B. eine Benutzereingabe, und das Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt zu dem Endpunkt beinhalten. Der autonome Betrieb des virtuellen Fahrzeugs kann auf den Sensoreingaben basieren, so als ob das virtuelle Fahrzeug ein autonomes Fahrzeug wäre, das in einer realexistierenden Umwelt fährt, die von der Computervorrichtung 110 simuliert wird. Alternativ kann das Fahren in der virtuellen Umwelt das Anzeigen der virtuellen Umwelt, wie sie einem oder mehreren Autonom-Fahr-Sensoren 130 erscheinen würde, umfassen. So kann, statt dem Zeigen des virtuellen Fahrzeugs wie es durch die virtuelle Umwelt fährt oder der Sicht des virtuellen Fahrers, ein Benutzer einfach verschiedene Sichten der Autonom-Fahr-Sensoren 130 sehen.
  • In einer möglichen Implementierung kann die Computervorrichtung 110 bei Block 420 das virtuelle Fahrzeug, als Reaktion auf eine Benutzereingabe, die eine Fahrzeugsteueraktion repräsentiert, durch die virtuelle Umwelt fahren. Die Fahrzeugsteueraktion kann Befehle beinhalten, die bestimmte virtuelle Systeme in dem virtuellen Fahrzeug steuern. Beispiele derartiger Systeme können ein virtuelles Drosselklappensystem, ein virtuelles Bremssystem, ein virtuelles Lenksystem oder dergleichen beinhalten. Somit können die virtuellen Fahrzeug-Befehle dafür verwendet werden, das virtuelle Fahrzeug in Echtzeit virtuell durch die virtuelle Umwelt zu fahren.
  • Bei Block 425 kann die Computervorrichtung 110 Daten virtueller Sensoren erzeugen, die die Daten repräsentieren, die von den virtuellen Sensoren gesammelt wurden. Die Daten virtueller Sensoren können demnach die Daten repräsentieren, die von realexistierenden Autonom-Fahrzeug-Sensoren 130 beim Fahren durch eine realexistierende Umwelt gesammelt würden, die mit der simulierten Umwelt identisch ist. Beispielsweise können die Daten virtueller Sensoren angeben, ob der Autonom-Fahrzeug-Sensor 130 z.B. ein Stopp-Schild erkannt haben würde, das teilweise versteckt ist, wie etwa teilweise von einem Baum verdeckt oder bei schlechten Beleuchtungsbedingungen (z.B. in der Abenddämmerung oder bei Nacht, ohne nahegelegene Straßenbeleuchtung). Bei einem möglichen Ansatz beinhaltet das Erzeugen der Daten virtueller Sensoren das Aufnehmen von Kamerabilddaten oder von Sensordaten mit Ray-Tracing, abhängig vom Sensortyp, und Speichern der aufgenommenen Kamerabilddaten oder der Sensordaten mit Ray-Tracing in einer Speichervorrichtung, wo auf sie zugegriffen werden kann und wo sie gemäß einem Signalverarbeitungscode verarbeitet werden können. Die Daten können, bevor sie z.B. an ein Objektdetektionsmodul ausgegeben werden, auf eine Weise verarbeitet werden, die die Grenzen realexistierender Sensoren widerspiegeln. Das Objektdetektionsmodul kann die simulierten Sensordaten verarbeiten und Informationen ausgeben, die relative Position, Größe und Objekttyp über irgendwelche detektierte Objekte beinhalten. Detektierte Objekte können unter Verwendung von Markierungen und Beschriftungen angezeigt werden, die über ein Simulationsfenster (z.B. den Anzeigebildschirm 155) gelegt werden, das die Sicht von jedem Sensor aus zeigt. Die Ausgabe der Rechenvorrichtung kann zeitgestempelt und für späteres Studieren oder spätere Verwendung in eine Datei geschrieben werden.
  • Bei Block 430 kann die Computervorrichtung 110 die Daten virtueller Sensoren verarbeiten, um Ausgangsdaten zu erzeugen, die Testdaten, Lerndaten oder beides enthalten können. Die Ausgangsdaten können auf den Daten virtueller Sensoren basieren, die bei Block 425 erzeugt wurden. Das bedeutet, dass Ausgangsdaten helfen können, bestimmte Einstellungen für die Autonom-Fahr-Sensoren 130 zu identifizieren, um Straßenbeschilderung, Fußgänger, Spurmarkierungen, andere Fahrzeuge usw. unter den bei Block 410 ausgewählten Umständen geeignet zu identifizieren. In einigen Fällen können die Ausgangsdaten Trends in den Daten virtueller Sensoren repräsentieren, die Einstellungen beinhalten, die mit dem Identifizieren der größten Anzahl von Objekten unter dem größten Satz von Umständen assoziiert sind. In anderen Fällen können die Ausgangsdaten spezifisch für einen Satz von Umständen sein, wobei in diesem Fall mehrere Sätze von Ausgangsdaten für letztendliche Verwendung in dem autonomen Fahrzeug 100 erzeugt werden. Letztendlich können die Ausgangsdaten, oder eine Zusammenfassung von Ausgangsdaten, in das Fahrzeugsystem 105 geladen werden, z.B. als Kalibrierungsdaten, die in einem realexistierenden autonomen Fahrzeug 100 betrieben werden. Wenn die Kalibrierungsdaten in das Fahrzeugsystem 105 geladen werden, können die Autonom-Fahr-Sensoren 130 die geeigneten Einstellungen anwenden, um Objekte unter den bei Block 410 ausgewählten Umständen richtig zu identifizieren.
  • Im Allgemeinen können die beschriebenen Computersysteme und/oder -vorrichtungen ein beliebiges einer Reihe von Computerbetriebssystemen einsetzen, einschließlich, jedoch auf keinen Fall eingeschränkt auf, Versionen und/oder Varianten des Ford Sync® Betriebssystems, des Microsoft Windows®-Betriebssystems, des Unix-Betriebssystems (z. B. das Solaris®-Betriebssystem, das von der Oracle Corporation in Redwood Shores, Kalifornien, USA, vertrieben wird), des AIX-UNIX-Betriebssystems, das von International Business Machines in Armonk, New York, USA, vertrieben wird, des Linux-Betriebssystems, der MacOSX- und -iOS-Betriebssysteme, die von der Apple Inc. in Cupertino, Kalifornien, USA, vertrieben werden, des BlackBerry OS, das von der Blackberry, Ltd. in Waterloo, Kanada vertrieben wird, und des Android-Betriebssystems, das von der Google, Inc. und der Open Handset Alliance entwickelt wird. Beispiele für Rechenvorrichtungen beinhalten unter anderem einen Fahrzeug-Bordcomputer, eine Computer-Workstation, einen Server, einen Tisch-, Notebook-, Laptop- oder Hand-Computer oder ein(e) sonstige(s) andere(s) Rechensystem und/oder -Vorrichtung.
  • Computervorrichtungen beinhalten allgemein computer-ausführbare Anweisungen, wobei die Anweisungen von einer oder mehreren wie den oben aufgelisteten Rechenvorrichtungen ausgeführbar sein können. Computer-ausführbare Anweisungen können aus Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung vielfältiger Programmiersprachen und/oder -technologien erstellt werden, darunter, aber ohne Beschränkung und entweder alleine oder in Kombination, JavaTM, C, C++, Visual Basic, Java Script, Perl usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen z. B. aus einem Speicher, einem computer-lesbaren Medium usw. und führt diese Anweisungen aus, um dadurch einen oder mehrere Prozesse, einschließlich eines oder mehrerer der hier beschriebenen Prozesse, auszuführen. Solche Anweisungen und andere Daten können unter Verwendung vielfältiger computer-lesbarer Medien gespeichert und übertragen werden.
  • Ein computerlesbares Medium (auch als ein prozessorlesbares Medium bezeichnet) beinhaltet ein beliebiges nicht-vergängliches (z. B. physisches) Medium, das an einer Bereitstellung von Daten (z.B. Anweisungen) teilhat, die von einem Computer gelesen werden können (z.B. von einem Prozessor eines Computers). Ein solches Medium kann viele Formen annehmen, darunter, aber ohne Beschränkung darauf, nicht-flüchtige Medien und flüchtige Medien. Nicht-flüchtige Medien können zum Beispiel optische oder magnetische Datenträger und andere persistente Speicher beinhalten. Flüchtige Medien können zum Beispiel einen dynamischen Direktzugriffsspeicher (DRAM), der typischerweise einen Hauptspeicher bildet, beinhalten. Derartige Anweisungen können von einem oder mehreren Übertragungsmedien, einschließlich Koaxialkabeln, Kupferdraht und Glasfasern, einschließlich denen, die einen Systembus umfassen, der mit einem Prozessor eines Computers gekoppelt ist, übertragen werden. Übliche Formen von computer-lesbaren Medien umfassen zum Beispiel eine Floppy-Disk, eine Diskette, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Papierband, ein beliebiges anderes physisches Medium mit einem Muster von Löchern, einen RAM, einen PROM, einen EPROM, einen Flash-EEPROM, einen beliebigen anderen Speicherchip oder eine Speicherkassette oder ein beliebiges anderes Medium, woraus ein Computer lesen kann.
  • Zu Datenbanken, Datensammlungen oder anderen Datenspeichern, die hierin beschrieben sind, können verschiedene Arten von Mechanismen zum Speichern und Abrufen verschiedener Arten von Daten sowie Zugreifen auf diese zählen, einschließlich einer hierarchischen Datenbank, eines Dateisatzes in einem Dateisystem, einer Anwendungsdatenbank in einem proprietären Format, eines relationalen Datenbankverwaltungssystems (relational database management system, RDBMS) usw. Jeder derartige Datenspeicher ist allgemein in einer Rechenvorrichtung enthalten, die ein Computerbetriebssystem einsetzt, wie eines der oben erwähnten, und auf ihn wird mittels eines Netzes auf eine beliebige oder beliebige mehrere einer Vielfalt von Methoden zugegriffen. Ein Dateisystem kann von einem Computerbetriebssystem zugreifbar sein und kann Dateien beinhalten, die in vielfältigen Formaten gespeichert sein können. Ein RDBMS wendet allgemein die Structured Query Language (SQL) an, zusätzlich zu einer Sprache zum Schaffen, Speichern, Bearbeiten und Ausführen gespeicherter Prozeduren, wie etwa die oben erwähnte PL/SQL-Sprache.
  • In einigen Beispielen sind Systemelemente möglicherweise als computerlesbare Anweisungen (z.B. Software) auf einer oder mehreren Rechenvorrichtungen (z. B. Server, PCs usw.) implementiert, auf damit assoziierten computerlesbaren Medien (z.B. Platten, Speicher usw.) gespeichert. Ein Computerprogrammprodukt kann derartige auf computerlesbaren Medien gespeicherte Anweisungen zum Ausführen der hier beschriebenen Funktionen umfassen.
  • Mit Bezug auf die hier beschriebenen Prozesse, Systeme, Verfahren, Heuristiken usw. versteht sich, dass, obwohl die Schritte solcher Prozesse usw. als gemäß einer bestimmten geordneten Abfolge auftretend beschrieben wurden, solche Prozesse mit in einer anderen als der hier beschriebenen Reihenfolge ausgeführten beschriebenen Schritten ausgeübt werden könnten. Ferner versteht sich, dass bestimmte Schritte gleichzeitig ausgeführt werden könnten, dass andere Schritte hinzugefügt werden könnten oder dass bestimmte hier beschriebene Schritte weggelassen werden könnten. Mit anderen Worten werden die Beschreibungen von Prozessen hierin zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten in keiner Weise als Beschränkung der Ansprüche aufgefasst werden.
  • Dementsprechend versteht sich, dass die obige Beschreibung nicht einschränkend, sondern veranschaulichend sein soll. Bei Durchsicht der obigen Beschreibung würden viele andere Ausführungsformen und Anwendungen als die gegebenen Beispiele offensichtlich werden. Der Schutzumfang soll nicht unter Bezugnahme auf die obige Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf die beiliegenden Ansprüche zusammen mit dem vollen Umfang von Äquivalenten, zu denen diese Ansprüche berechtigt sind. Es wird erwartet und beabsichtigt, dass zukünftige Entwicklungen in den hier besprochenen Technologien auftreten werden und dass die offenbarten Systeme und Verfahren in solche zukünftigen Ausführungsformen integriert werden. Zusammengefasst versteht sich, dass die Anmeldung modifiziert und abgewandelt werden kann.
  • Alle in den Ansprüchen verwendeten Begriffe sind dafür beabsichtigt, ihre gewöhnliche Bedeutung zu erhalten, wie sie von in den hier beschriebenen Technologien bewanderten Fachleuten verstanden wird, es sei denn, dass hier ein expliziter Hinweis auf das Gegenteil gemacht wird. Insbesondere ist die Verwendung der Artikel im Singular wie „ein“, „einer“, „eine“, „der“, „die“, „das“ usw. als Angabe eines oder mehrerer der aufgezeigten Elemente zu verstehen, sofern ein Anspruch nicht ausdrücklich eine gegensätzliche Einschränkung angibt.
  • Die Zusammenfassung wird bereitgestellt, um dem Leser zu ermöglichen, schnell die Natur der technischen Offenbarung festzustellen. Sie wird mit dem Verständnis eingereicht, dass sie nicht dazu verwendet werden soll, den Schutzumfang oder die Bedeutung der Ansprüche zu interpretieren oder zu beschränken. Zusätzlich kann in der vorangehenden Ausführlichen Beschreibung gesehen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen für den Zweck der Übersichtlichkeit der Offenbarung gruppiert werden. Diese Vorgehensweise der Offenbarung ist nicht als eine Absicht wiedergebend zu interpretieren, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern als ausdrücklich in jedem Anspruch dargelegt ist. Vielmehr liegt der Erfindungsgegenstand in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform, wie es die folgenden Ansprüche wiedergeben. Somit werden die folgenden Ansprüche hiermit in die Ausführliche Beschreibung aufgenommen, wobei jeder Anspruch für sich als ein eigenständig beanspruchter Gegenstand steht.
  • Zeichenerklärung
  • Fig. 1
    110 Computing Device Computervorrichtung
    Fig. 2
    115 User Interface Device Benutzerschnittstellen-Vorrichtung
    120 Navigation System Navigationssystem
    125 Communication Interface Kommunikations-Schnittstelle
    130 Autonomous Driving Sensors Autonom-Fahr-Sensoren
    135 Autonomous Mode Controller Autonom-Modus-Steuerung
    140 Processing Device Verarbeitungsvorrichtung
    145 Vehicle Subsystems Fahrzeug-Subsysteme
    Fig. 4
    405 Load Simulation Simulation Laden
    410 Receive User Inputs Benutzereingaben erhalten
    415 Generate Virtual Environment Virtuelle Umwelt erzeugen
    420 Navigate Virtual Vehicle Through Virtual Environment Virtuelles Fahrzeug durch die virtuelle Umwelt fahren
    425 Generate Virtual Sensor Data Daten virtueller Sensoren erzeugen
    430 Generate Testing/Training Data Test-/Trainingsdaten erzeugen

Claims (20)

  1. Computervorrichtung, die eine Verarbeitungsschaltung und ein Datenspeichermedium umfasst, wobei die Rechenvorrichtung programmiert ist zum: Empfangen einer Benutzereingabe, die eine Fahrzeugsteueraktion darstellt, die mit Betrieb eines virtuellen Fahrzeugs in einer virtuellen Umwelt assoziiert ist; virtuellen Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt gemäß der Fahrzeugsteueraktion; Sammeln von Daten virtueller Sensoren; und Verarbeiten der gesammelten Daten virtueller Sensoren.
  2. Computervorrichtung nach Anspruch 1, wobei die Rechenvorrichtung dafür programmiert ist, die Daten virtueller Sensoren mindestens teilweise basierend auf dem virtuellen Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt zu erzeugen.
  3. Computervorrichtung nach Anspruch 1, wobei die Rechenvorrichtung dafür programmiert ist, Kalibrierungsdaten aus den Daten virtueller Sensoren zu erzeugen und wobei Kalibrierungsdaten zu einem autonomen Fahrzeug hochgeladen werden.
  4. Computervorrichtung nach Anspruch 1, wobei die Rechenvorrichtung dafür programmiert ist, das virtuelle Fahrzeug virtuell durch die virtuelle Umwelt in Echtzeit zu fahren.
  5. Computervorrichtung nach Anspruch 4, wobei die virtuellen Sensoren mindestens teilweise auf in einem autonomen Fahrzeug eingebauten Autonom-Fahr-Sensoren basieren.
  6. Computervorrichtung nach Anspruch 1, wobei die Fahrzeugsteueraktion das Steuern eines virtuellen Drosselklappensystems und/oder eines virtuellen Bremssystems und/oder eines virtuellen Lenksystems beinhaltet.
  7. Computervorrichtung nach Anspruch 1, wobei das Erzeugen der virtuellen Umwelt das Erzeugen der virtuellen Umwelt mit zufälligen Testparametern beinhaltet.
  8. Computervorrichtung nach Anspruch 7, wobei das Erzeugen der virtuellen Umwelt mit zufälligen Testparametern das Erzeugen der virtuellen Umwelt beinhaltet, um mindestens eines der Folgenden zu simulieren: eine zufällige Beleuchtungsbedingung, eine zufällige Wetterbedingung, eine zufällige Schilderplatzierung und eine zufällige Schilderausrichtung.
  9. Verfahren, umfassend: Empfangen einer Benutzereingabe, die mindestens einen Testparameter auswählt, der mit autonomem Betrieb eines virtuellen Fahrzeugs in einer virtuellen Umwelt assoziiert ist; Simulieren der virtuellen Umwelt, die den mindestens einen Testparameter umfasst; virtuelles Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt; Sammeln von Daten virtueller Sensoren; und Verarbeiten der gesammelten Daten virtueller Sensoren.
  10. Verfahren nach Anspruch 9, das ferner das Erzeugen der Daten virtueller Sensoren umfasst, mindestens teilweise basierend auf dem virtuellen Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt.
  11. Verfahren nach Anspruch 9, das ferner das Erzeugen von Kalibrierungsdaten aus den Daten virtueller Sensoren zum Hochladen zu einem autonomen Fahrzeug umfasst.
  12. Verfahren nach Anspruch 9, wobei das virtuelle Fahrzeug virtuell durch die virtuelle Umwelt gefahren wird, zumindest teilweise basierend auf in dem virtuellen Fahrzeug eingebauten virtuellen Sensoren.
  13. Verfahren nach Anspruch 12, wobei die virtuellen Sensoren mindestens teilweise auf in einem autonomen Fahrzeug eingebauten Autonom-Fahr-Sensoren basieren.
  14. Verfahren nach Anspruch 9, das ferner das Erzeugen der virtuellen Umwelt mindestens teilweise basierend auf der Benutzereingabe umfasst.
  15. Verfahren nach Anspruch 14, wobei das Erzeugen der virtuellen Umwelt das Erzeugen der virtuellen Umwelt beinhaltet, um eine Wetterbedingung zu simulieren.
  16. Verfahren nach Anspruch 14, wobei das Erzeugen der virtuellen Umwelt das Erzeugen der virtuellen Umwelt beinhaltet, um eine Beleuchtungsbedingung zu simulieren.
  17. Computersystem, umfassend: einen Anzeigebildschirm; und eine Computervorrichtung, die eine Prozessorschaltung und ein Datenspeichermedium umfasst, wobei die Computervorrichtung programmiert ist zum: Empfangen einer Benutzereingabe, die mindestens einen Testparameter auswählt, der mit autonomem Betrieb eines virtuellen Fahrzeugs in einer virtuellen Umwelt assoziiert ist; Simulieren der virtuellen Umwelt, die den mindestens einen Testparameter umfasst; virtuellen Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt; Sammeln von Daten virtueller Sensoren; und Verarbeiten der gesammelten Daten virtueller Sensoren; wobei das virtuelle Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt auf dem Anzeigebildschirm präsentiert wird.
  18. Computersystem nach Anspruch 17, wobei die Computervorrichtung dafür programmiert ist, die Daten virtueller Sensoren mindestens teilweise basierend auf dem virtuellen Fahren des virtuellen Fahrzeugs durch die virtuelle Umwelt zu erzeugen und die Daten der virtuellen Sensoren über den Anzeigebildschirm auszugeben.
  19. Computersystem nach Anspruch 17, wobei die Computervorrichtung dafür programmiert ist, die virtuelle Umwelt mindestens teilweise basierend auf der Benutzereingabe zu erzeugen, wobei das Erzeugen der virtuellen Umwelt das Erzeugen der virtuellen Umwelt beinhaltet, um eine Wetterbedingung und/oder eine Beleuchtungsbedingung zu simulieren.
  20. Computersystem nach Anspruch 17, wobei die Präsentation der virtuellen Umwelt auf der Benutzer-Anzeigevorrichtung eine graphische Darstellung der Wetterbedingung und/oder der Beleuchtungsbedingung beinhaltet.
DE102016100492.8A 2015-01-21 2016-01-13 Virtueller autonomer Antwortprüfstand Withdrawn DE102016100492A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562106074P 2015-01-21 2015-01-21
US62/106,074 2015-01-21
US14/945,791 2015-11-19
US14/945,791 US20160210383A1 (en) 2015-01-21 2015-11-19 Virtual autonomous response testbed

Publications (1)

Publication Number Publication Date
DE102016100492A1 true DE102016100492A1 (de) 2016-07-21

Family

ID=55534719

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016100492.8A Withdrawn DE102016100492A1 (de) 2015-01-21 2016-01-13 Virtueller autonomer Antwortprüfstand

Country Status (6)

Country Link
US (1) US20160210383A1 (de)
CN (1) CN105809103A (de)
DE (1) DE102016100492A1 (de)
GB (1) GB2536549A (de)
MX (1) MX2016000873A (de)
RU (1) RU2015156117A (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018120845B4 (de) 2017-08-28 2023-02-02 GM Global Technology Operations LLC Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
EP4202760A1 (de) * 2021-12-21 2023-06-28 dSPACE GmbH Computerimplementiertes verfahren zum erstellen einer dreidimensionalen simulationsumgebung
EP4202753A1 (de) * 2021-12-21 2023-06-28 dSPACE GmbH Erzeugen von testdaten zum testen eines einen sensordatenstrom auswertenden steuersystems eines kraftfahrzeugs

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769453B2 (en) 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
US10229363B2 (en) * 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
US10474964B2 (en) 2016-01-26 2019-11-12 Ford Global Technologies, Llc Training algorithm for collision avoidance
US11210436B2 (en) * 2016-07-07 2021-12-28 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of algorithms facilitating navigation of railway crossings in varying weather conditions
US10521677B2 (en) * 2016-07-14 2019-12-31 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of vision-based rain-detection algorithms
US11262722B2 (en) * 2016-08-02 2022-03-01 Siemens Aktiengesellschaft Monitoring and controlling unit for use in an autonomous system with self-x properties
US10592805B2 (en) * 2016-08-26 2020-03-17 Ford Global Technologies, Llc Physics modeling for radar and ultrasonic sensors
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
CN111226268A (zh) * 2017-05-02 2020-06-02 密歇根大学董事会 用于自动驾驶车辆的模拟车辆交通
CN107153363B (zh) * 2017-05-08 2020-11-03 百度在线网络技术(北京)有限公司 无人驾驶汽车的仿真测试方法及装置、设备与可读介质
US10803323B2 (en) 2017-05-16 2020-10-13 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
CN107527074B (zh) * 2017-09-05 2020-04-07 百度在线网络技术(北京)有限公司 用于车辆的图像处理方法和装置
US10885240B2 (en) * 2017-11-02 2021-01-05 Uatc, Llc Deterministic simulation framework for autonomous vehicle testing
JP7061873B2 (ja) * 2017-12-28 2022-05-02 ジオテクノロジーズ株式会社 情報処理装置、情報処理プログラム及び情報処理方法
US11584390B2 (en) 2017-12-28 2023-02-21 Intel Corporation System and method for simulation of autonomous vehicles
US11954651B2 (en) * 2018-03-19 2024-04-09 Toyota Jidosha Kabushiki Kaisha Sensor-based digital twin system for vehicular analysis
US10817752B2 (en) 2018-05-31 2020-10-27 Toyota Research Institute, Inc. Virtually boosted training
EP3584725A1 (de) * 2018-06-18 2019-12-25 Istanbul Okan Üniversitesi Beschleunigtes virtuelles autonomes fahrzeugprüfsystem unter realen strassenverhältnissen
US11508049B2 (en) * 2018-09-13 2022-11-22 Nvidia Corporation Deep neural network processing for sensor blindness detection in autonomous machine applications
US20200134494A1 (en) * 2018-10-26 2020-04-30 Uatc, Llc Systems and Methods for Generating Artificial Scenarios for an Autonomous Vehicle
US10482003B1 (en) 2018-11-09 2019-11-19 Aimotive Kft. Method and system for modifying a control unit of an autonomous car
CN109740184B (zh) * 2018-12-07 2022-04-12 吉林大学 二次压入实现凹坑形微阵列结构单元表面平坦化的方法
US11422551B2 (en) * 2018-12-27 2022-08-23 Intel Corporation Technologies for providing a cognitive capacity test for autonomous driving
CN109933856B (zh) * 2019-02-19 2023-07-07 百度在线网络技术(北京)有限公司 自动驾驶决策规划数据复现方法及装置
CN109885929B (zh) * 2019-02-19 2023-07-07 百度在线网络技术(北京)有限公司 自动驾驶决策规划数据复现方法及装置
EP3745382A1 (de) * 2019-05-27 2020-12-02 Zenuity Ab Verfahren und server zur unterstützung der erzeugung von szenarien zum testen von autonomem fahr- und/oder erweiterten fahrerassistenzsystemfunktionen
DE102019209535A1 (de) * 2019-06-28 2020-12-31 Robert Bosch Gmbh Verfahren zum Bereitstellen einer digitalen Straßenkarte
JP7019109B1 (ja) * 2021-02-26 2022-02-14 三菱電機株式会社 制御ロジック生成システム、制御ロジック生成方法、制御ロジック生成プログラム、及び制御ロジック実行装置
US20240069505A1 (en) * 2022-08-31 2024-02-29 Gm Cruise Holdings Llc Simulating autonomous vehicle operations and outcomes for technical changes

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5590062A (en) * 1993-07-02 1996-12-31 Matsushita Electric Industrial Co., Ltd. Simulator for producing various living environments mainly for visual perception
US7363567B2 (en) * 2003-08-28 2008-04-22 Agilent Technologies, Inc. System and method for electronic device testing using random parameter looping
JP4211594B2 (ja) * 2003-12-18 2009-01-21 日産自動車株式会社 3次元路面走行環境モデルおよび同モデルを備えた車両挙動制御システムの評価装置
US8326469B2 (en) * 2006-07-14 2012-12-04 Irobot Corporation Autonomous behaviors for a remote vehicle
CN100572169C (zh) * 2007-02-09 2009-12-23 财团法人车辆研究测试中心 虚拟道路边界的辅助驾驶装置
KR20110059134A (ko) * 2009-11-27 2011-06-02 주식회사 맵퍼스 학습 기능을 갖는 내비게이션 단말기 및 이를 위한 학습 방법
CN101872559A (zh) * 2010-06-08 2010-10-27 广东工业大学 一种面向汽车驾驶模拟器的虚拟驾驶主动安全预警系统及预警方法
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US8775064B2 (en) * 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
CN102522022A (zh) * 2011-12-13 2012-06-27 中联重科股份有限公司 驾驶设备虚拟训练系统的操作机构信号采集系统及设备
EP2608153A1 (de) * 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Verfahren und System zum Spielen eines Spiels mit erweiterter Realität in einem Motorfahrzeug
CN202748964U (zh) * 2012-07-06 2013-02-20 长安大学 一种基于计算机的虚拟驾驶系统
CN103050027B (zh) * 2012-12-28 2015-04-08 武汉理工大学 具有立体视觉的驾驶模拟器

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018120845B4 (de) 2017-08-28 2023-02-02 GM Global Technology Operations LLC Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
EP4202760A1 (de) * 2021-12-21 2023-06-28 dSPACE GmbH Computerimplementiertes verfahren zum erstellen einer dreidimensionalen simulationsumgebung
EP4202753A1 (de) * 2021-12-21 2023-06-28 dSPACE GmbH Erzeugen von testdaten zum testen eines einen sensordatenstrom auswertenden steuersystems eines kraftfahrzeugs

Also Published As

Publication number Publication date
GB201601126D0 (en) 2016-03-09
GB2536549A (en) 2016-09-21
RU2015156117A (ru) 2017-07-04
US20160210383A1 (en) 2016-07-21
CN105809103A (zh) 2016-07-27
MX2016000873A (es) 2016-07-20

Similar Documents

Publication Publication Date Title
DE102016100492A1 (de) Virtueller autonomer Antwortprüfstand
DE102016100428A1 (de) In virtuellen Umgebungen verfeinertes autonomes Fahren
DE102016100416A1 (de) Prüfstand für virtuelle Sensoren
EP3164858B1 (de) Verfahren zur parkplatzvermittlung und freier-parkplatz-assistenzsystem
DE112019001605T5 (de) Trainieren, testen und verifizieren von autonomen maschinen unter verwendung simulierter umgebungen
DE102016123876A1 (de) Kolonnen-fahrzeug-vorausschau
DE102014118079A1 (de) Erlernen des autonomen Fahrverhaltens
DE102019201856A1 (de) Fahrzeugsteuerungssystem und Steuerverfahren
DE102015110942A1 (de) Parkdienst
DE102016108812A1 (de) Umstellen von Betriebsmodi eines Kraftfahrzeugs
DE102015202369A1 (de) Autonome fahrzeugbedienung und leistungseinstellung
DE102015202859A1 (de) Abtastsystem und -verfahren für autonomes Fahren
DE102017115197A1 (de) Erzeugung von virtuellen sensordaten für die erfassung von polleraufnahmen
DE102012216994A1 (de) Verfahren zur Parkplatzvermittlung und Freier-Parkplatz-Assistenzsystem
DE102018117135A1 (de) Fahrzeugassistenz einer erweiterten realität für farbblindheit
DE102015103986A1 (de) Reduzierte(r) Netzwerkfluss und Rechenlast unter Verwendung eines variablen Raum- und Zeitplaners
DE102019125166A1 (de) Sensorverschmutzungserkennung
DE102019125131A1 (de) Sensorblickfeldabbildung
DE102020130674A1 (de) Fahrzeugposenerfassung mit bezugsmarker
DE102021125166A1 (de) Bestimmung von seitenwindrisiken
DE102021108470A1 (de) Realistische bildperspektiventransformation unter verwendung neuronaler netze
DE102020205310A1 (de) Computerimplementiertes Verfahren zum Bereitstellen einer Datenstruktur für die Streckenkomplexitätserfassung und Validierung von Funktionalitäten eines automatisierten Fahrsystems, derartige Datenstruktur, Computer zum Validierung von Funktionalitäten eines automatisierten Fahrsystems, Computerprogramm zum Bereitstellen einer derartigen Datenstruktur und computerlesbarer Datenträger
DE102021131991A1 (de) Fahrzeugsensorreinigung und -kühlung
DE102022100549A1 (de) Mit einem rang versehene fehlerzustände
DE102019117136A1 (de) Kommunikation und steuerung für verkehrsinfrastruktur

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE

Representative=s name: ETL WABLAT & KOLLEGEN PATENT- UND RECHTSANWALT, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017500000

Ipc: G06F0030000000

R082 Change of representative

Representative=s name: ETL IP PATENTANWALTSGESELLSCHAFT MBH, DE

Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee