DE112018006555T5 - Programmgesteuertes identifizieren einer persönlichkeit eines autonomen fahrzeugs - Google Patents

Programmgesteuertes identifizieren einer persönlichkeit eines autonomen fahrzeugs Download PDF

Info

Publication number
DE112018006555T5
DE112018006555T5 DE112018006555.3T DE112018006555T DE112018006555T5 DE 112018006555 T5 DE112018006555 T5 DE 112018006555T5 DE 112018006555 T DE112018006555 T DE 112018006555T DE 112018006555 T5 DE112018006555 T5 DE 112018006555T5
Authority
DE
Germany
Prior art keywords
autonomous vehicle
data
vector
personality
autonomous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018006555.3T
Other languages
English (en)
Inventor
Robert Richard Noel Bielby
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micron Technology Inc
Original Assignee
Micron Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micron Technology Inc filed Critical Micron Technology Inc
Publication of DE112018006555T5 publication Critical patent/DE112018006555T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Systeme und Verfahren zum Zuordnen von Persönlichkeiten zu autonomen Fahrzeugen werden offenbart. In einer Ausführungsform wird ein Verfahren offenbart, umfassend Empfangen von Daten von einem autonomen Fahrzeug; Erzeugen eines Vektors, der das autonome Fahrzeug darstellt, basierend auf den Daten; Klassifizieren des Vektors in eine oder mehrere Persönlichkeiten; Empfangen einer Suchabfrage von einem Benutzer; Identifizieren eines oder mehrerer autonomer Fahrzeuge, die auf die Suchabfrage reagieren, basierend auf Persönlichkeiten, die dem einen oder den mehreren autonomen Fahrzeugen zugeordnet sind, wobei das eine oder die mehreren autonomen Fahrzeugen das autonome Fahrzeug beinhalten; und Übertragen des einen oder der mehreren autonomen Fahrzeuge an den Benutzer.

Description

  • VERWANDTE ANMELDUNG
  • Die vorliegende Anmeldung beansprucht den Vorteil des Anmeldedatums der US-Patentanmeldung Nr. 15/851,730 , eingereicht am 21. Dezember 2017 mit dem Titel „Programmgesteuertes Identifizieren einer Persönlichkeit eines autonomen Fahrzeugs“, auf deren gesamte Offenbarung hiermit ausdrücklich Bezug genommen wird.
  • URHEBERRECHTSHINWEIS
  • Diese Anwendung beinhaltet Material, das möglicherweise urheberrechtlich geschützt ist. Der Urheberrechtsinhaber hat keine Einwände gegen die Faksimile-Reproduktion der Patentoffenlegung durch Dritte, wie sie in den Akten oder Aufzeichnungen des Patent- und Markenamtes enthalten ist, behält sich jedoch ansonsten alle Urheberrechtsrechte vor.
  • ALLGEMEINER STAND DER TECHNIK
  • Die offenbarten Ausführungsformen zielen auf Erzeugen von Persönlichkeiten für autonome Fahrzeuge und insbesondere auf Identifizieren von Persönlichkeiten unter Verwendung automatisierter Modelle ab.
  • Nichtautonome Fahrzeuge werden einer umfassenden Analyse unterzogen. Viele Websites, Anwendungen und Dienste erfassen Details zu nichtautonomen Fahrzeugen wie Kilometerstand, Reparaturen, Unfälle und andere Details (einschließlich relativ allgemeiner Details wie Buchwerte).
  • Diese Anwendungen bieten zwar ausführliche Informationen zu Fahrzeugen, nutzen jedoch nicht die Fülle an Daten, die von autonomen Fahrzeugen generiert werden. Insbesondere behalten aktuelle Systeme immer noch die gleichen Klassifizierungs- und Datenanalyseroutinen bei, die für nichtautonome Fahrzeuge verwendet werden. Aktuelle Systeme haben im Allgemeinen keine technische Lösung für die Verarbeitung der Fülle von Daten, die von autonomen Fahrzeugen erzeugt werden. Darüber hinaus gibt es keine klare technische Lösung, um Rohdaten eines autonomen Fahrzeugs in eine aussagekräftige Messung umzuwandeln.
  • Zusätzlich zu diesen Einschränkungen führt die Verwendung von maschinellem Lernen durch autonome Fahrzeuge zu einer Unterscheidung zwischen den Betrieben autonomer Fahrzeuge. Insbesondere, wenn autonome Fahrzeugsysteme unter verschiedenen Umständen „lernen“, wie man arbeitet, kann jedes autonome Fahrzeug eine eigene „Persönlichkeit“ haben. Das heißt, bestimmte autonome Fahrzeuge können auf bestimmte Umstände auf eine bestimmte Weise reagieren. Die Herausforderung bei der Identifizierung derartiger Persönlichkeiten besteht darin, dass die Rohdaten, die die Persönlichkeit darstellen, stark unstrukturiert sind.
  • Daher besteht auf dem Fachgebiet ein Bedarf an Systemen und Verfahren zum ersten Parsen der umfangreichen Rohdaten, die von autonomen Fahrzeugen erzeugt werden, um aussagekräftige Statistiken zu erstellen. Die Minimierung von Daten ermöglicht es, dass repräsentative Statistiken unter Verwendung von Techniken des maschinellen Lernens ordnungsgemäß verarbeitet werden. Darüber hinaus besteht auf dem Fachgebiet ein Bedarf an Systemen zum maschinellen Lernen, die autonome Fahrzeugpersönlichkeiten auf der Grundlage früherer Leistungen, die über eine große Flotte autonomer Fahrzeuge gesammelt wurden, vorhersagen können.
  • KURZDARSTELLUNG
  • Die offenbarten Ausführungsformen lösen die vorstehend identifizierten Probleme, indem sie Systeme und Verfahren zum intelligenten Zuweisen einer Persönlichkeit zu einem autonomen Fahrzeug bereitstellen.
  • Die offenbarten Ausführungsformen beschreiben Systeme und Verfahren zum Empfangen von Rohdaten eines autonomen Fahrzeugs von jeweiligen autonomen Fahrzeugen. Die offenbarten Ausführungsformen beschreiben ferner spezifische Techniken zum Parsen dieser Daten, um ein autonomes Fahrzeugobjekt zu erzeugen, das angesammelte Statistiken darstellt, die die Betriebseigenschaften des autonomen Fahrzeugs definieren.
  • Aus diesen angesammelten Statistiken beschreiben die offenbarten Ausführungsformen Techniken zum Erzeugen einer oder mehrerer repräsentativer Persönlichkeiten, um ein gegebenes autonomes Fahrzeug zu kategorisieren. In einer Ausführungsform wird eine spezifische Technik zum Anpassen eines autonomen Fahrzeugobjekts an einen Satz von Persönlichkeitsregeln offenbart. In einer anderen Ausführungsform wird eine Pipeline zum maschinellen Lernen und zur Verarbeitung natürlicher Sprache offenbart, die zuerst einen Satz autonomer Fahrzeugobjekte in korrelierte Teilmengen gruppiert. Jede Teilmenge wird dann analysiert (unter Verwendung von Textdaten von Drittanbietern), um auf der Grundlage der Empfindungsanalyse automatisch Persönlichkeitskennungen anzuzeigen. Nach der Kategorisierung der Cluster wird jedes autonome Fahrzeugobjekt als Trainingsdaten für ein maschinelles Lernsystem verwendet, um verallgemeinerte Persönlichkeitsmodelle zu erzeugen, die für zukünftige autonome Fahrzeuge verwendet werden können.
  • Die folgende detaillierte Beschreibung beschreibt die spezifischen technischen Umsetzungen dieser Operationen.
  • Figurenliste
  • Das Vorstehende und andere Objekte, Merkmale und Vorteile der Offenbarung werden aus der folgenden Beschreibung von Ausführungsformen ersichtlich, wie sie in den beigefügten Zeichnungen veranschaulicht sind, in denen sich Referenzzeichen in den verschiedenen Ansichten auf dieselben Teile beziehen. Die Zeichnungen sind nicht unbedingt maßstabsgetreu, stattdessen liegt der Schwerpunkt vielmehr auf der Veranschaulichung der Prinzipien der Ausführungsformen.
    • 1 ist ein Ablaufdiagramm, das ein Verfahren zum Erzeugen einer Persönlichkeit eines autonomen Fahrzeugs und zum Identifizieren eines Fahrzeugs als Reaktion auf eine Persönlichkeitssuchabfrage gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 2A ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Komponentenstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 2B ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Geschwindigkeitsstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 2C ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Entscheidungsfindungsstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 2D ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Effizienzstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 2E ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Kosteneffizienzstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 2F ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Nicht-Routineaktivitätsstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 3A ist ein Ablaufdiagramm, das ein Verfahren zum Erzeugen von Personalitäten eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 3B ist ein Ablaufdiagramm, das ein Verfahren zum Erzeugen von Personalitäten eines autonomen Fahrzeugs unter Verwendung von Algorithmen zum maschinellen Lernen gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
    • 4 ist ein Blockdiagramm eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung.
    • 5 ist ein Blockdiagramm eines zentralisierten Betriebssystems eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • 1 ist ein Ablaufdiagramm, das ein Verfahren zum Erzeugen einer Persönlichkeit eines autonomen Fahrzeugs und zum Identifizieren eines Fahrzeugs als Reaktion auf eine Persönlichkeitssuchabfrage gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
  • In Schritt 102 empfängt das Verfahren Daten eines autonomen Fahrzeugs.
  • In einer Ausführungsform umfassen Daten eines autonomen Fahrzeugs alle Daten, die sich auf den Betrieb eines autonomen Fahrzeugs beziehen. Beispiele für Daten eines autonomen Fahrzeugs umfassen Daten wie etwa Aufzeichnungen der Geschwindigkeit autonomer Fahrzeuge, Reparaturen am Fahrzeug, Fehler oder andere Probleme mit Komponenten eines autonomen Fahrzeugs, genommene Routen, ein Protokoll der vor einem Unfall ausgegebenen Befehle, durch das Fahrzeug verursache Kosten, durch das autonome Fahrzeug erzeugte Einnahmen (z. B. wenn das autonome Fahrzeug ein beschriftetes Fahrzeug ist) und beliebige anderen Arten von Daten, die sich auf den Betrieb des autonomen Fahrzeugs beziehen, darunter beliebige Daten, die durch einen Sensor des Fahrzeugs erzeugt werden.
  • In einer Ausführungsform umfassen Daten eines autonomen Fahrzeugs Steuerdaten niedrigerer Ebene, die dem autonomen Fahrzeug zugeordnet sind. Beispielsweise können die Daten eines autonomen Fahrzeugs eine Genauigkeit eines GPS-Empfängers für eine Vielzahl von GPS-Messwerten umfassen. Als ein anderes Beispiel können Daten eines autonomen Fahrzeugs eine Abfolge von Befehlen umfassen, die über einen bestimmten Zeitraum an ein Getriebesteuergerät (transmission control unit - TCU) oder ein Motorsteuergerät (engine control unit - ECU) gesendet werden.
  • In einer Ausführungsform empfängt das Verfahren die Daten eines autonomen Fahrzeugs in Echtzeit. In anderen Ausführungsformen empfängt das Verfahren ein autonomes Fahrzeug als Teil eines Stapelhochladeprozesses.
  • In einer Ausführungsform empfängt das Verfahren Daten eines autonomen Fahrzeugs direkt von dem Fahrzeug. In anderen Ausführungsformen kann das Verfahren Daten eines autonomen Fahrzeugs von einem Hersteller eines autonomen Fahrzeugs empfangen.
  • Wie nachfolgend ausführlicher beschrieben wird, umfassen die Daten eines autonomen Fahrzeugs, die das Verfahren empfängt, Steuerdaten auf niedriger Ebene und beinhalten keine Korrelationsdaten. Das heißt, die Daten eines autonomen Fahrzeugs beinhalten kein Ergebnis oder keine Bestimmung, die auf der Grundlage der zugrundeliegenden Daten eines autonomen Fahrzeugs vorgenommen wurde.
  • In einer Ausführungsform ist jedes Datenelement, das das Verfahren in Schritt 102 empfängt, einem autonomen Fahrzeug zugeordnet. In einer Ausführungsform umfasst diese Zuordnung eine Marke, ein Modell und ein Baujahr des autonomen Fahrzeugs. Alternativ oder in Verbindung mit dem Vorstehenden kann die Zuordnung Details bezüglich verschiedener Optionen oder Modifikationen an einem Basismodell des autonomen Fahrzeugs enthalten. In einigen Ausführungsformen speichert das Verfahren eine Datenbank bekannter autonomer Fahrzeuge und Details autonomer Fahrzeuge. In dieser Ausführungsform kann das Verfahren nur in Schritt 102 eine Identifikation eines autonomen Fahrzeugs erhalten.
  • In Schritt 104 aktualisiert das Verfahren Statistiken eines autonome Fahrzeugs, die einem Fahrzeug zugeordnet sind.
  • In einem Anfangszustand darf ein bestimmtes autonomes Fahrzeug keiner Statistik zugeordnet werden. In diesem Zustand ist das Fahrzeug nur einer Marke, einem Modell, einem Baujahr und beliebigen Änderungen an einem Basismodell des autonomen Fahrzeugs zugeordnet.
  • Wenn das Verfahren Daten eines autonomen Fahrzeugs empfängt, aktualisiert das Verfahren Statistiken, die dem Fahrzeug zugeordnet sind. Details von Beispieltechniken zum Aktualisieren von Statistiken eines autonomen Fahrzeugs sind in den Beschreibungen der 2A-2F beschrieben, auf deren Details hiermit in vollem Umfang Bezug genommen wird.
  • Das dargestellte Verfahren kann auf einer Einzelbasis oder auf einer Klassenbasis arbeiten. Unter Verwendung einer Einzelbasis kann das Verfahren Statistiken eines autonomen Fahrzeugs für ein bestimmtes autonomes Fahrzeug (z. B. ein bestimmtes Fahrzeug mit einer Fahrzeugidentifikationsnummer) aktualisieren. Auf einer Klassenbasis kann das Verfahren die Statistiken eines autonomen Fahrzeugs für eine Klasse autonomer Fahrzeuge (z. B. eine bestimmte Marke, ein bestimmtes Modell oder ein bestimmtes Baujahr) aktualisieren. In einigen Ausführungsformen kann das Verfahren ferner auf einer Komponentenbasis betrieben werden. In dieser Ausführungsform können Statistiken für bestimmte Subsysteme autonomer Fahrzeuge aktualisiert werden, wenn Daten empfangen werden. Beispielsweise können ein Betriebssystem eines autonomen Fahrzeugs und ein Übertragungsmodell eines autonomen Fahrzeugs als die Einheit verwendet werden, der Statistiken zugeordnet sind.
  • Beispielsweise kann ein einzelnes autonomes Fahrzeug wie folgt dargestellt sein:
 { 
    make: „CarCo“, 
    model: „X1“, 
    year: „2017“, 
    statistics: {} 
 }
  • In diesem Beispiel sind die Statistiken für den „2017 CarCo X1“ leer.
  • Anschließend kann das Verfahren Geschwindigkeitsdaten für das Fahrzeug empfangen:
    • ZEIT GESCHWINDIGKEIT (MPH)
    • 0001 045
    • 0002 046
    • 0003 052
    • 0004 075
    • ...
    • 0008 065
    • 0009 076
    • 0010 100
    • ...
    • 0015 095
    • 0016 062
    • 0017 000
  • Obwohl die Zeitstempel beispielhaft sind, stellen die Geschwindigkeitsdaten die Geschwindigkeit des autonomen Fahrzeugs im Zeitverlauf dar. In einer Ausführungsform kann das Verfahren die Geschwindigkeitsdaten in dem Statistikfeld des autonomen Fahrzeugobjekts speichern. Die Speicherung aller Geschwindigkeitsdaten kann jedoch ineffizient und für die weitere Verarbeitung nicht erforderlich sein. Somit kann in einer anderen Ausführungsform das Verfahren Schlüsselmetriken aus den Rohgeschwindigkeitsdaten extrahieren. In diesem Beispiel stellen die Zeiten 0001 bis 0002 eine allmähliche Geschwindigkeitssteigerung dar, während die Zeiten 0003 bis 0004 und 0009 bis 0010 schnelle Beschleunigungen darstellen. In ähnlicher Weise zeigen die Zeiten 0015 bis 0017 eine schnelle Verzögerung an. Somit kann das Verfahren die Geschwindigkeitsdaten unter Verwendung eines Schiebefensters analysieren, um schnelle Beschleunigungen oder Verzögerungen zu identifizieren. Anhand der vorstehenden Geschwindigkeitsdaten als Beispiel kann das Verfahren die Statistiken eines autonomen Fahrzeugs wie folgt aktualisieren:
    Figure DE112018006555T5_0001
  • In einigen Ausführungsformen kann das Verfahren zusätzlich eine Gesamtfahrzeit des autonomen Fahrzeugs (3.600.000 Millisekunden oder 1 Stunde) speichern, um die Beschleunigungen und Verzögerungen in einen Kontext zu stellen.
  • Wenn das Beispiel fortgesetzt wird, kann das Verfahren Daten zu Fehlern und Reparaturen sowie zu anderen Systemereignissen empfangen:
    • ZEIT EREIGNIS
    • 0020 MISFIRE (CYLINDER 1)
    • 0021 HIGH COOLANT TEMP
    • 0022 MISFIRE (CYLINDER 1)
    • 0023 LOW TIRE PRESSURE (FRONT DRIVER)
    • 0024 HIGH IAT
    • 0025 MISFIRE (CYLINDER 1)
    • 0026 NORMAL COOLANT TEMP
    • 0027 SERVICED
    • 0027 TIRE PRESSURE OK
    • 0028 OS RESTART (CRITICAL FAULT)
    • 0029 UNABLE TO ENGAGE GEAR 1
    • 0030 INITIATE LOG BACKUP
    • 0031 MISFIRE (CYLINDER 1)
  • Hier zeigt das Protokoll ein Kombinationsprotokoll, das herkömmliche Daten einer bordeigenen Diagnose (on-board diagnostic - OBD) sowie Einträge für autonome Fahrzeuge kombiniert. Im Allgemeinen schränkt die Beschreibung den jeweiligen Generator von Protokolldaten oder dessen Format nicht ein.
  • In dem vorstehenden Protokoll wird ein Zylinderfehlzündungsereignis viermal erkannt (0020, 0022, 0025 und 0031). Zusätzlich werden ein Alarm für hohe Kühlmitteltemperatur (0021), ein Alarm für niedrigen Reifendruck (0023), ein Alarm für hohe Ansauglufttemperatur (0024), ein Alarm für nicht einstellbare Gänge (0029), ein Alarm für einen Neustart des kritischen Betriebssystems (OS) (0028) in dem Protokoll erkannt. Darüber hinaus werden unkritische Einträge wie etwa eine Initiierung von Protokollsicherung (0030) erkannt. Das Verfahren erkennt zusätzlich, dass das Fahrzeug gewartet wurde (0027) und dass die Kühlmitteltemperatur bei 0026 wieder normal geworden ist.
  • Wie bei Geschwindigkeitsdaten kann das Verfahren Statistiken auf höherer Ebene basierend auf den Protokolldateien auf niedrigerer Ebene synthetisieren. Beispielsweise kann das autonome Fahrzeugobjekt wie folgt aktualisiert werden:
    Figure DE112018006555T5_0002
    Figure DE112018006555T5_0003
  • Hier kann die Anzahl der Fehler („faults“) unabhängig von der Schwere einem beliebigen Fehler entsprechen. In vielen Fällen kann diese Zahl künstlich hoch sein. Somit kann das Verfahren ferner eine kritische Fehleranzahl erzeugen, um diejenigen Fehler zu trennen, die erheblich problematisch sind. Zusätzlich zeichnet das Verfahren auf, wie oft das Fahrzeug gewartet wurde.
  • Als letztes Beispiel kann das Verfahren eine Liste von Befehlen erhalten, die vor einem Unfall aufgezeichnet wurden:
  • ZEIT PROTOKOLL
    • 0001-1 LAT/LON 29°58'45.03"N 31°08'03.69"E
    • 0001-2 CAM1 PED [N 1.23MPS E]
    • 0001-3 CAM1 UNKNOWN [NW 1.2M]
    • 0001-4 LID PED 1.5M
    • 0001-5 LID UNKNOWN 0.75M
    • 0002-1 LID PED 1M
    • 0002-2 TX SWA -45°
    • 0002-3 TX ECU SP 0
    • 0003-1 AIRBAG DEPLOYED
  • Das vorstehende Befehlsprotokoll kann Befehle darstellen, die auf einem CAN-Bus ausgegeben und von einem autonomen Fahrzeug überwacht werden. Die vorstehende Auflistung von Befehlen ist notwendigerweise hypothetisch und nur zur Veranschaulichung beschränkt. Das spezifische Format von CAN- und anderen Busbefehlen kann variieren.
  • Wie vorstehend dargestellt, wird ein Ort zum Zeitpunkt 0001-1 aufgezeichnet. Zum Zeitpunkt 0001-2 wird nördlich des autonomen Fahrzeugs ein Fußgänger identifiziert, der sich mit 1,23 Metern pro Sekunde nach Osten bewegt. Zum Zeitpunkt 0001-3 erkennt eine andere Kamera ein 1,2 Meter langes, unbekanntes Objekt 1,2 Meter nordwestlich des Fahrzeugs. Zum Zeitpunkt 0001-4 erkennt ein Lidar-Sensor, dass der Fußgänger 1,5 Meter entfernt ist, und zum Zeitpunkt 0001-5 erkennt ein Lidar-Sensor, dass das unbekannte Objekt 0,75 Meter entfernt ist. Zum Zeitpunkt 0002-1 erkennt der Lidar-Sensor, dass der Fußgänger einen Meter entfernt ist, und das autonome Fahrzeug gibt Befehle aus, um das Lenkrad um - 45 Grad (d. h. nach Westen) zu betätigen und die Geschwindigkeit schnell zu verringern. Zum Zeitpunkt 0003-1 zeigt das Protokoll an, dass ein Airbag ausgelöst wurde.
  • Insbesondere zeigt das obige Protokoll ein beispielhaftes Szenario, in dem ein autonomes Fahrzeug bestimmen muss, ob es in Richtung des unbekannten Objekts ausweichen oder den Fußgänger vor dem Fahrzeug treffen soll. Solche Entscheidungen sind für Käufe und/oder Insassen autonomer Fahrzeuge von zunehmender Bedeutung. In der dargestellten Ausführungsform analysiert das Verfahren die Protokolldatei, um Statistiken darüber zu extrahieren, wie das autonome Fahrzeug auf Unfallszenarien reagiert. Somit kann das Verfahren das autonome Fahrzeugobjekt aktualisieren, um Folgendes einzuschließen:
    Figure DE112018006555T5_0004
    Figure DE112018006555T5_0005
  • Hier ist die Unfallstatistik („accidents“) komplexer als die vorherige Statistik. Das Verfahren zeichnet zunächst eine Zahl für die Anzahl der Unfälle auf, an denen das autonome Fahrzeug beteiligt ist. Als nächstes zeichnet das Verfahren auf, ob sich das autonome Fahrzeug, für jeden Unfall, dafür entschieden hat, einen Fußgänger oder den Fahrer oder die Bedienperson des autonomen Fahrzeugs zu treffen.
  • In Schritt 106 identifiziert oder aktualisiert das Verfahren Persönlichkeiten für ein gegebenes Fahrzeug.
  • Wie hierin verwendet, bezieht sich eine Persönlichkeit auf eine Kombination von Fahrzeugstatistiken (und/oder Datenpunkten), die um ein gemeinsames Thema korreliert sind. Zum Beispiel kann eine „wartungsarme“ Persönlichkeit einen Mangel an erforderlicher Wartung, eine minimale Anzahl von Fehlern und eine minimale Anzahl von kritischen Fehlern kombinieren. In ähnlicher Weise kann eine „wirtschaftliche“ Persönlichkeit eine hohe Anzahl von Wegen zur Erzielung von Einnahmen (nachfolgend erörtert), eine hohe Bewertung der Kraftstoffverbrauchswerte und eine geringe Wartung umfassen. Ebenso kann eine „sichere“ Persönlichkeit eine hohe statistische Wahrscheinlichkeit, dass der Fahrer bei einem Unfall nicht verletzt wird, und eine geringe Anzahl von Unfällen umfassen. In einigen Ausführungsformen sind diese Beispiele Beispiele für „Mikropersönlichkeiten“. Wie hierin verwendet, umfasst eine Mikropersönlichkeit eine Persönlichkeit, die Rohdatenmetriken als Unterkomponenten enthält. Im Gegensatz dazu bezieht sich eine „Makropersönlichkeit“ auf eine Kombination von Mikropersönlichkeiten. Beispielsweise kann eine „wartungsarme“ Persönlichkeit in Kombination mit einer „wirtschaftlichen“ Persönlichkeit ein „preisgünstiges“ autonomes Fahrzeug umfassen.
  • In einigen Ausführungsformen können Persönlichkeiten manuell identifiziert werden. In einigen Ausführungsformen können Persönlichkeiten jedoch unter Verwendung eines maschinellen Lernalgorithmus (z. B. eines neuronalen Netzwerks oder eines Clustering-Algorithmus) identifiziert werden. Beispielsweise kann das Verfahren die erzeugten autonomen Fahrzeugobjekte als Trainingsdatensatz für ein Clustersystem (z. B. einen k-Means-Clustering-Algorithmus oder ein neuronales Netzwerk) verwenden. In dieser Ausführungsform verwendet das Verfahren das System zum maschinellen Lernen, um Verbindungen zwischen den verschiedenen in Schritt 104 erzeugten Statistiken aufzudecken.
  • Nach dem Identifizieren relevanter Cluster autonomer Fahrzeugobjekte weist das Verfahren jeden Cluster einer Persönlichkeit zu. In einigen Ausführungsformen kann diese Identifizierung von menschlichen Datenaufbereitern durchgeführt werden. Um dieses Verfahren zu automatisieren, kann das Verfahren jedoch eine oder mehrere Pipelines zur Verarbeitung natürlicher Sprache (Natural Language Processing - NLP) verwenden, um automatisch Persönlichkeitstypen zu generieren. Beispielsweise kann das Verfahren eine Liste von Marken, Modellen und/oder Baujahren für jedes autonome Fahrzeug in einem Cluster extrahieren. Das Verfahren kann dann Textausschnitte extrahieren, die jedem dieser autonomen Fahrzeuge zugeordnet sind. Diese Textausschnitte können Branchenbewertungen, Verbraucherkommentare und andere verschiedene Freiformtexte enthalten, die autonomen Fahrzeugen im Cluster zugeordnet sind. Das Verfahren kann dann den kombinierten Satz von Textausschnitten verwenden, um einen Persönlichkeitstyp aus dem Text zu extrahieren. Beispielsweise können viele Textausschnitte den Begriff „Schrottkarre“ verwenden, was darauf hinweisen kann, dass den gruppierten autonomen Fahrzeugen eine „Schrottkarren“-Persönlichkeit zugewiesen werden sollte. Das Verfahren kann dann die Eigenschaften der gruppierten autonomen Fahrzeugobjekte analysieren, um die gemeinsamen oder korrelierten Statistiken zu extrahieren und einen neuen Persönlichkeitstyp zu erzeugen, der die gemeinsamen oder gruppierten Statistiken mit der Persönlichkeitskennung verknüpft. Auf diese Weise kann der Persönlichkeitstyp gespeichert und auf neue Fahrzeuge angewendet werden.
  • In Schritt 108 empfängt das Verfahren eine Suchabfrage.
  • In einer Ausführungsform kann das Verfahren einem Benutzer eine Suchschnittstelle bereitstellen. In einer ersten Ausführungsform kann die Schnittstelle eine Webseite umfassen. In einer zweiten Ausführungsform kann die Schnittstelle eine mobile Anwendung umfassen. In jeder dieser Ausführungsformen kann die Schnittstelle als Teil einer Anwendung bereitgestellt werden, die es Benutzern ermöglicht, nach autonomen Fahrzeugen zum Kauf zu suchen. Alternativ oder in Verbindung mit dem Vorstehenden kann die Schnittstelle als Teil einer Taxi- oder Mitfahrgelegenheit bereitgestellt werden.
  • In jedem Szenario können Benutzer Persönlichkeitsabfragen in die Benutzeroberfläche eingeben. In einer Ausführungsform kann die Schnittstelle eine Dropdown-Liste von Persönlichkeiten bereitstellen, die es dem Benutzer ermöglicht, eine oder mehrere zu suchende Persönlichkeiten auszuwählen. In einigen Ausführungsformen kann die Schnittstelle die Verkettung von Persönlichkeiten als UND- oder ODER-Operationen ermöglichen.
  • Alternativ oder in Verbindung mit dem Vorstehenden kann die Schnittstelle eine Klartextabfrage ermöglichen. In dieser Ausführungsform kann das Verfahren NLP-Algorithmen verwenden, um eine Klartextabfrage mit einer Anzahl von Persönlichkeiten abzugleichen. Beispielsweise kann das Verfahren NLP-Routinen zur semantischen Analyse verwenden, um eine Empfindung der Abfrage zu identifizieren. Das Verfahren kann dann versuchen, diese Empfindung einer Empfindung zuzuordnen, die jeder Persönlichkeit zugeordnet ist. In einigen Ausführungsformen kann das Verfahren als Teil von Schritt 106 eine Auflistung von Empfindungen erzeugen, die dem Text zugeordnet sind, der zum Erzeugen der Persönlichkeitstypen verwendet wird.
  • In Schritt 110 identifiziert das Verfahren reagierende Persönlichkeiten.
  • In einer Ausführungsform identifiziert das Verfahren explizit Persönlichkeiten, wie durch ein zuvor diskutiertes Dropdown-Menü angezeigt. In einigen Ausführungsformen kann das Verfahren Persönlichkeiten unter Verwendung einer semantischen Analyse identifizieren. Darüber hinaus kann das Verfahren Makro- und Mikropersönlichkeiten identifizieren. Beispielsweise kann die Benutzerabfrage eine Makropersönlichkeit anzeigen und das Verfahren kann eine oder mehrere Mikropersönlichkeiten identifizieren. Zum Beispiel kann eine „sichere“ Makropersönlichkeit in eine „wartungsarme“ und eine „für den Fahrer sichere“ Mikropersönlichkeit zerlegt werden.
  • In Schritt 112 stuft das Verfahren die Persönlichkeiten ein.
  • In einigen Ausführungsformen können Ranglistenpersönlichkeiten optional sein. In einer Ausführungsform kann das Verfahren die Persönlichkeiten basierend auf der Anzahl von autonomen Fahrzeugen, die jeder Persönlichkeit zugeordnet sind, einstufen. Alternativ oder in Verbindung mit dem Vorstehenden kann das Verfahren die Persönlichkeiten basierend auf der Entsprechung zur Benutzersuchabfrage einstufen. Wenn beispielsweise NLP-Techniken verwendet werden, um eine Empfindung einer Abfrage vorherzusagen, kann jede Empfindung mit einem Konfidenzniveau dafür verbunden sein, dass die Empfindung korrekt ist. In dieser Ausführungsform kann die Konfidenz der Empfindung auf jede Persönlichkeit übertragen werden, die mit der Empfindung verbunden ist. Auf diese Weise können die Persönlichkeiten basierend auf dem entsprechenden Empfindungskonfidenzniveau eingestuft werden.
  • In Schritt 114 zeigt das Verfahren die eingestuften Kandidatenpersönlichkeiten und/oder autonomen Fahrzeuge an.
  • In einer Ausführungsform zeigt das Verfahren die eingestuften Kandidaten als Teil einer Webseite oder einer mobilen Anwendung an. Beispielsweise kann das Verfahren eine Suchergebnisseite (search results page - SERP) zurückgeben, auf der eine Liste autonomer Fahrzeuge und/oder Persönlichkeiten angezeigt wird, die ein Benutzer überprüfen kann. In einer anderen Ausführungsform kann das Verfahren eine Liste von Persönlichkeiten und/oder autonomen Fahrzeugen in einer mobilen Anwendung aktualisieren. In einer anderen Ausführungsform kann das Verfahren eine Liste autonomer Fahrzeuge in der Nähe des Benutzers anzeigen, die der Abfrage entsprechen (in dem Beispiel, in dem die mobile App eine Taxi- oder Mitfahrgelegenheit ist).
  • In Schritt 116 bestimmt das Verfahren, ob eine Benutzerinteraktion durchgeführt wurde. Wenn keine Interaktion erkannt wird, zeigt das Verfahren möglicherweise weiterhin die eingestuften Kandidaten an.
  • Wenn das Verfahren eine Interaktion erkennt, kann das Verfahren alternativ die Suchabfrage in Schritt 118 verfeinern.
  • In einer Ausführungsform kann die Interaktion einen Benutzer umfassen, der ein gegebenes autonomes Fahrzeug auswählt, das auf dem Benutzergerät angezeigt wird. In einer anderen Ausführungsform kann eine Interaktion einen Benutzer umfassen, der ein angezeigtes autonomes Fahrzeug „versteckt“.
  • In einer Ausführungsform verwendet das Verfahren die Interaktion, um die Persönlichkeitsdaten weiter zu verfeinern. Wenn das Verfahren beispielsweise eine Liste von autonomen Fahrzeugen mit geringem Wartungsaufwand abruft und der Benutzer ein bestimmtes autonomes Fahrzeug auswählt, kann diese Interaktion dem Verfahren gemeldet werden, und das Verfahren kann die Konfidenz der dem ausgewählten autonomen Fahrzeug zugewiesenen Persönlichkeit erhöhen. Wenn umgekehrt ein Benutzer ein bestimmtes autonomes Fahrzeug „versteckt“, kann die Persönlichkeitskonfidenz für dieses autonome Fahrzeug verringert werden. Auf diese Weise verwendet das Verfahren das Benutzer-Feedback, um das Klassifizierungsverfahren weiter zu verfeinern. Dieses Feedback kann in nachfolgende Durchläufe der Persönlichkeitsvorhersage einbezogen werden.
  • Zusätzlich zur Bereitstellung von Feedback kann die Interaktion eine neue Suchabfrage auslösen. In einer Ausführungsform kann die Interaktion eine Verfeinerung der Suchabfrageparameter (z. B. Persönlichkeiten) umfassen. In dieser Ausführungsform kann das Verfahren eine neue Suchabfrage basierend auf der Interaktion erzeugen und eine neue Suchabfrage ausgeben, wobei die Schritte 108-116 wiederholt werden.
  • 2A ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Komponentenstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung darstellt.
  • In Schritt 201 empfängt das Verfahren Reparatur- und/oder Fehlerdaten.
  • Wie vorstehend beschrieben, können in einigen Ausführungsformen Reparatur- und Fehlerdaten automatisch von einem autonomen Fahrzeug empfangen werden. In einer Ausführungsform umfassen die Reparatur- und Fehlerdaten eine Auflistung von Ereignissen, die von einem autonomen Fahrzeug durchgeführt Wartungsarbeiten bzw. erkannte Fehler darstellen. In einigen Ausführungsformen können diese Daten direkt von einem autonomen Fahrzeug empfangen werden. Alternativ oder in Verbindung mit dem Vorstehenden können die Daten von einem Wartungsanbieter und/oder einem Hersteller eines autonomen Fahrzeugs empfangen werden.
  • Im optionalen Schritt 202 protokolliert das Verfahren die Reparatur- oder Fehlerdaten für das autonome Fahrzeug. In diesem Schritt kann das Verfahren alle Reparatur- und Fehlerdaten, die einem bestimmten Fahrzeug zugeordnet sind, zur späteren Verwendung speichern. In einer Ausführungsform speichert das Verfahren diese Daten in einem Datenlager und verarbeitet die Daten nicht wesentlich.
  • In Schritt 203 aktualisiert das Verfahren die Reparatur- und Fehlerzeitparameter.
  • Wie zuvor kurz erläutert, bestimmt das Verfahren in Schritt 203, wie häufig Reparaturen oder Fehler auftreten. In einer Ausführungsform verwendet das Verfahren eine vordefinierte Fensterlänge, um die Reparatur- und Fehlerdaten zu untersuchen. Beispielsweise kann das Verfahren eine Fensterlänge von drei Tagen für Fehler und sechs Monaten für Reparaturen festlegen. In einer anderen Ausführungsform kann das Verfahren eine gegebene Reparatur oder einen Fehler auswählen und die letzte übereinstimmende Reparatur oder einen Fehler identifizieren. Beispielsweise kann das Verfahren beim Erfassen einer Reparatur das autonome Fahrzeugobjekt analysieren, um festzustellen, wann eine Reparatur zuletzt stattgefunden hat, und diese letzte Reparatur verwenden, um eine durchschnittliche Zeit zwischen Reparaturen zu berechnen. Auf diese Weise kann das Verfahren die durchschnittliche Zeit zwischen Reparaturen ständig verfeinern.
  • In Bezug auf Fehler kann das Verfahren einen bestimmten Fehler auswählen und alle vorherigen Fehler identifizieren, die mit dem ausgewählten Fehler übereinstimmen. Wie hierin verwendet, bezieht sich ein Fehler auf eine fehlerhafte Komponente oder ein fehlerhaftes System eines autonomen Fahrzeugs.
  • In Schritt 204 identifiziert das Verfahren die relevante Fahrzeugkomponente, die mit dem Fehler oder der Reparatur verbunden ist.
  • Wie zuvor erläutert, kann jeder Protokolleintrag eine bestimmte Komponente des autonomen Fahrzeugs identifizieren, die repariert werden muss oder bei der ein Fehler auftritt. Auf diese Weise extrahiert das Verfahren die Komponente zur weiteren Verarbeitung.
  • In Schritt 205 aktualisiert das Verfahren Komponentenstatistiken und -häufigkeiten.
  • Anhand von Reparaturen als ein erstes Beispiel kann das Verfahren in Schritt 204 identifizieren, dass der Kühler repariert wurde. Das vorherige Verfahren hatte festgestellt, dass dieser Kühler zweimal repariert wurde, einmal im letzten Monat und ein zweites Mal vor zwei Monaten. Wenn das Fahrzeug drei Monate in Betrieb ist, wird die Reparaturfrequenz des Kühlers auf einmal pro Monat festgelegt. Darüber hinaus aktualisiert das Verfahren die Kühlerstatistik, um drei Gesamtreparaturen anzuzeigen.
  • In ähnlicher Weise kann das Verfahren während des Zeitraums von drei Monaten zahlreiche Kühlerfehler erkennen. Unter der Annahme von zwei Fehlern vor jeder Reparatur setzt das Verfahren die Fehlerhäufigkeit des Kühlers auf zweimal pro Monat und die Fehlerstatistik auf sechs.
  • Das dargestellte Verfahren kann für jeden Fehler und jede Reparatur und, stellvertretend, für jede Komponente wiederholt werden, die einem Fehler oder einer Reparatur unterliegt. Auf diese Weise erzeugt das vorstehende Verfahren ein statistisches Bild aller Komponenten des autonomen Fahrzeugs. In einigen Ausführungsformen kann das Verfahren eine Auflistung von Komponenten initialisieren, die repariert und fehlerfrei sein sollen. Somit kann der Komponententeil eines autonomen Fahrzeugs ein Gesamtbild der Fehler und Wartungsarbeiten darstellen, die für jede Komponente eines Fahrzeugs erforderlich sind.
  • Alternativ kann in einigen Ausführungsformen das Verfahren jedem Fehler oder jeder Reparatur einen Schweregrad zuweisen. Beispielsweise kann größeren Übertragungsfehlern und Reparaturen ein „kritischer“ Schweregrad zugewiesen werden. In ähnlicher Weise kann schwerwiegenden Betriebssystemfehlern ein kritischer Schweregrad zugewiesen werden. Umgekehrt kann geringfügigen Fehlern wie etwa geringer Wischerflüssigkeitsstand ein unkritischer Schweregrad zugewiesen werden. In einigen Ausführungsformen können einer gegebenen Komponente mehrere Fehlerstufen zugewiesen werden, wenn mehrere Fehler auftreten. In einigen Ausführungsformen kann das Verfahren die Fehlerstufen mitteln, um eine durchschnittliche Fehlerstufe für jede Komponente zu speichern.
  • In einigen Ausführungsformen können die Ergebnisse der Verarbeitung des in 2A dargestellten Verfahrens als Trainingsdatensatz verwendet werden, um zukünftige Fehler und/oder Reparaturdaten vorherzusagen. In einigen Ausführungsformen kann ein neuronales Netzwerk oder ein Markov-Modell verwendet werden, um den Zeitpunkt von Reparaturen und/oder Fehlern zu modellieren. Zusätzlich kann das Verfahren Drehzahl- oder Motordaten (weiter unten erörtert) verwenden, um die Modellierung der Reparatur-/Fehlerfrequenz zu verfeinern.
  • 2B ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Geschwindigkeitsstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung darstellt.
  • In Schritt 211 empfängt das Verfahren Geschwindigkeitsdaten.
  • Wie vorstehend beschrieben, können in einigen Ausführungsformen Geschwindigkeitsdaten automatisch von einem autonomen Fahrzeug empfangen werden. In einer Ausführungsform umfassen die Geschwindigkeitsdaten eine Auflistung von Geschwindigkeiten eines autonomen Fahrzeugs, die von dem autonomen Fahrzeug aufgezeichnet wurden. In einigen Ausführungsformen können diese Daten direkt von einem autonomen Fahrzeug empfangen werden. Alternativ oder in Verbindung mit dem Vorstehenden können die Daten von einem Hersteller eines autonomen Fahrzeugs empfangen werden.
  • Im optionalen Schritt 212 protokolliert das Verfahren die Geschwindigkeitsdaten. In diesem Schritt kann das Verfahren alle Geschwindigkeitsdaten, die einem bestimmten Fahrzeug zugeordnet sind, zur späteren Verwendung speichern. In einer Ausführungsform speichert das Verfahren diese Daten in einem Datenlager und verarbeitet die Daten nicht wesentlich.
  • In Schritt 213 durchläuft das Verfahren die Geschwindigkeitsdaten und bestimmt, ob ein Übergang vorhanden ist.
  • In einer Ausführungsform umfasst ein Übergang eine schnelle Beschleunigung oder Verzögerung. Um zu erkennen, kann das Verfahren eine Reihe von Geschwindigkeitsmessungen analysieren und bestimmen, ob eine Differenz zwischen Geschwindigkeiten in der Reihe einen vordefinierten Schwellenwert überschreitet, was auf eine schnelle Beschleunigung oder Verzögerung hinweist. Wenn kein derartiger Unterschied besteht, protokolliert das Verfahren weiterhin Geschwindigkeitsdaten und durchläuft eine Reihe von Messungen.
  • In Schritt 214 aktualisiert das Verfahren ein Geschwindigkeitsänderungsprofil, das einem autonomen Fahrzeug zugeordnet ist, wenn ein Geschwindigkeitsübergang erfasst wird.
  • Wie zuvor beschrieben, umfasst der Übergang eine schnelle Beschleunigung oder Verzögerung. Wenn der Übergang eine Beschleunigung ist, aktualisiert das Verfahren eine Anzahl schneller Beschleunigungen des autonomen Fahrzeugs. Wenn der Übergang eine Verzögerung ist, aktualisiert das Verfahren eine Anzahl schneller Verzögerungen des autonomen Fahrzeugs. Auf diese Weise speichert das Verfahren eine historische Aufzeichnung der Anzahl von Beschleunigungen und Verzögerungen, die einen vorbestimmten Schwellenwert überschreiten.
  • In einigen Ausführungsformen kann das Verfahren eine zusätzliche Gating-Funktion einführen, um die Anzahl von falsch positiven Ergebnissen zu begrenzen. Beispielsweise kann das Verfahren zusätzlich zu Geschwindigkeitsdaten ein Protokoll von Sensoraufzeichnungen empfangen. In diesem Beispiel kann das Verfahren die Geschwindigkeitsdaten mit den Sensordaten vergleichen, um zu bestimmen, ob die Beschleunigung oder Verzögerung gerechtfertigt war. Beispielsweise kann das Verfahren bestimmen, ob eine Kamera oder ein Radar/Lidar-Sensor anzeigt, dass ein Objekt unerwartet vor dem autonomen Fahrzeug platziert wurde. Beim Erkennen, dass eine schnelle Verzögerung in Verbindung mit dem Erfassen des Objekts auftritt, kann der in Schritt 213 erfasste Übergang verworfen werden, da die Verzögerung als gerechtfertigt angesehen werden kann.
  • Wie vorstehend erörtert, kann die Anzahl der Beschleunigungen und Verzögerungen in Verbindung mit den Reparatur-/Fehlerdaten in 2A verwendet werden, um ein Vorhersagemodell zu verfeinern, um zu bestimmen, wann bestimmte Komponenten Fehler aufweisen und/oder repariert werden müssen. Beispielsweise kann eine Aufzeichnung häufiger Bremsfehler/-reparaturen ohne schnelle Verzögerung auf ein potenzielles Problem mit dem Bremssystem selbst hinweisen. Umgekehrt kann ein korreliertes Verzögerungsmuster anzeigen, dass das Fahrzeug die zugrunde liegenden Reparaturen/Fehler verursacht.
  • 2C ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Entscheidungsfindungsstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung darstellt.
  • Eines der größten Probleme, mit denen autonome Fahrzeuge derzeit konfrontiert sind, sind die Entscheidungen autonomer Fahrzeuge in potenziell lebensbedrohlichen Situationen. Oft muss eine Entscheidung getroffen werden, einen Fußgänger zu treffen oder diesem auszuweichen, um ihn nicht zu treffen, was möglicherweise den Insassen des autonomen Fahrzeugs verletzen oder töten kann. Dieses Problem ist ferner darauf zurückzuführen, dass angesichts der tödlichen Folgen der Entscheidung keine verlässlichen Trainingsdaten vorliegen.
  • In Schritt 221 empfängt das Verfahren Unfalldaten.
  • In einigen Ausführungsformen umfassen die Unfalldaten ein Protokoll von Befehlen, die von dem autonomen Fahrzeug vor einem Unfall ausgegeben wurden. In einigen Ausführungsformen wird ein Unfall durch Auslösen eines oder mehrerer Aufprallsensoren des autonomen Fahrzeugs identifiziert. In einigen Ausführungsformen kann der Unfall ein vordefiniertes Fenster von Ereignisdaten umfassen, die vor dem Unfall auftreten (z. B. 30 Sekunden oder eine Minute).
  • In Schritt 222 spult das Verfahren den Unfall zurück.
  • In einer Ausführungsform analysiert das Verfahren Protokolldaten an dem Punkt, an dem ein Unfall erfasst wird (z. B. ein Protokolleintrag, der angibt, dass ein Aufprallsensor ausgelöst wurde). Das Verfahren durchläuft dann jeden vorherigen Protokolleintrag.
  • In Schritt 223 bestimmt das Verfahren, ob ein Entscheidungspunkt erreicht wurde.
  • In einigen Ausführungsformen umfasst ein Entscheidungspunkt einen Befehl, der von dem autonomen Fahrzeug an eine Steuereinheit ausgegeben wird, der unerwartet ist. In einigen Ausführungsformen kann das Verfahren die Protokolleinträge analysieren, um zuerst alle Änderungen der Lenkrichtung oder der Motordrehzahl zu extrahieren, da derartige Ereignisse einen Änderungskurs eines autonomen Fahrzeugs als Reaktion auf eine mögliche Gefahr anzeigen. In einigen Ausführungsformen kann die letzte Änderung der Geschwindigkeit und/oder Richtung als Entscheidungspunkt verwendet werden.
  • In einigen Ausführungsformen kann das Protokoll jedoch mehrere Änderungen der Geschwindigkeit und/oder der Richtung enthalten. In dieser Ausführungsform kann das Verfahren die zuerst erfassten Geschwindigkeits- und Richtungsänderungen speichern und damit fortfahren, alle vorhergehenden Änderungen der Geschwindigkeit oder Richtung zu analysieren. Das Verfahren kann dann eine Geschwindigkeits- und/oder Richtungsänderung identifizieren, die erheblich von einem Protokoll von Geschwindigkeits-/Richtungsaufzeichnungen abweicht. Im Allgemeinen versucht das Verfahren, eine Änderung der Geschwindigkeit oder Richtung, die sich erheblich von einer Routinegeschwindigkeit oder -richtung unterscheidet, zu isolieren.
  • Wenn kein Entscheidungspunkt erkannt wird, durchläuft das Verfahren weiterhin die Unfalldaten (Schritt 222).
  • In Schritt 224 klassifiziert das Verfahren den Entscheidungspunkt beim Erfassen des Entscheidungspunkts.
  • Verschiedene Verfahren können verwendet werden, um einen Entscheidungspunkt zu klassifizieren. In einer ersten Ausführungsform kann eine Erfassung, dass das Fahrzeug Geschwindigkeiten oder Richtungen radikal geändert hat, anzeigen, dass das Fahrzeug beschlossen hat, das Leben des Insassen gegenüber einer Kollision mit einem Objekt oder Fußgänger zu riskieren. Umgekehrt kann eine Entscheidung, Geschwindigkeit oder Richtung nicht zu ändern (oder nur die Geschwindigkeit zu ändern) darauf hinweisen, dass das autonome Fahrzeug dazu entschlossen ist, eine Kollision mit dem Objekt/Fußgänger zu riskieren, anstatt das Leben des Insassen zu riskieren.
  • In einer nuancierteren Ausführungsform kann das Verfahren Sensordaten analysieren, die den Entscheidungspunkt umgeben. Beispielsweise kann das Verfahren Kamera- und Lidar-/Radardaten analysieren, um die von dem Fahrzeug vor dem Aufprall erfassten Objekte zu bestimmen. In einigen Ausführungsformen können diese Daten die von dem Fahrzeug erfassten Objekte sowie ihre Position relativ zu dem autonomen Fahrzeug identifizieren. Das Verfahren kann dann Änderungen an Geschwindigkeit und Richtung analysieren, um zu bestimmen, wie der Entscheidungspunkt klassifiziert werden soll.
  • In einigen Ausführungsformen können die Daten anzeigen, dass das autonome Fahrzeug versucht hat, den Kurs in einen leeren Bereich zu ändern (im Gegensatz zur Kollision mit einem anderen Objekt). In dieser Ausführungsform entschied sich das autonome Fahrzeug, das Leben des Insassen zu riskieren, wobei jedoch das Risiko gering war. Dies steht im Gegensatz zu der Entscheidung, mit einer erkannten Barriere oder einem anderen Objekt zu kollidieren. In dieser Ausführungsform kann das Verfahren die Entscheidung weiterhin als lebensgefährlich für den Insassen klassifizieren, dem Risiko jedoch einen geringen Schweregrad zuweisen.
  • In Schritt 225 aktualisiert das Verfahren eine Unfallvermeidungstendenz für das autonome Fahrzeug.
  • In einer Ausführungsform umfasst Schritt 225 das Aktualisieren einer Anzahl von Unfällen, die das Fahrzeug erlebt hat. Zusätzlich kann das Verfahren die Anzahl der Fälle tabellieren, in denen das Fahrzeug das Leben des Insassen riskierte, im Vergleich zu dem Risiko, mit einem Fußgänger oder einem anderen Objekt zusammenzustoßen.
  • In einigen Ausführungsformen kann die vorstehende Verarbeitung nicht nur auf Unfälle angewendet werden, sondern auch auf ein gesamtes Ereignisprotokoll eines autonomen Fahrzeugs. In dieser Ausführungsform spult das Verfahren ein Protokoll zurück, um im Allgemeinen schnelle Änderungen der Geschwindigkeit oder der Richtung zu identifizieren. In dieser Ausführungsform kann ein Aufprallsensor nicht ausgelöst werden (wenn das autonome Fahrzeug eine Gefahr vermeidet), kann aber dennoch dazu verwendet werden, die von dem autonomen Fahrzeug getroffenen Entscheidungen allgemein zu klassifizieren. Beispielsweise kann eine Entscheidung, eine Straße als Reaktion auf eine erkannte Gefahr zu verlassen, auf eine Neigung hinweisen, das Leben des Insassen zu riskieren. Auf diese Weise kann das Verfahren eine Gesamtzählung davon erzeugen, wie oft ein autonomes Fahrzeug das Leben oder die Sicherheit eines Insassen (unabhängig von der Schwere) im Vergleich zum Schutz des Insassen gefährdet hat.
  • 2D ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Effizienzstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung darstellt.
  • In Schritt 231 empfängt das Verfahren Routenführungsinformationen von einem autonomen Fahrzeug.
  • In einer Ausführungsform kann das autonome Fahrzeug, wenn ein autonomes Fahrzeug eine Route zu einem Ziel berechnet, die Routenführungsdetails an einen zentralen Server übertragen. In einigen Ausführungsformen umfassen die Routenführungsinformationen einen Ursprung, ein Ziel, Routenschritte und eine geschätzte Reisezeit.
  • In Schritt 232 vergleicht das Verfahren die empfangenen Routenführungsinformationen mit einer Liste von Kandidatenrouten.
  • In einer Ausführungsform verwendet das Verfahren den Ursprung und das Ziel, um einen Kandidatensatz von Routen zu berechnen. Das Verfahren kann dann die zurückgelegte Strecke oder die geschätzte Reisezeit auf der empfangenen Route mit den Entfernungen/Zeiten der Kandidatenrouten vergleichen. Wenn die Empfangsroute länger ist (entweder in Entfernung oder Dauer), aktualisiert das Verfahren ein Feld in dem autonomen Fahrzeugobjekt, das angibt, dass das anfängliche Routing für eine Kandidatenroute ineffizienter ist.
  • In Schritt 233 aktualisiert das Verfahren die anfängliche Routeneffizienz für das autonome Fahrzeug basierend auf dem Vergleich in Schritt 232.
  • In einigen Ausführungsformen kann das Maß der Ineffizienz eine Angabe der zusätzlichen Zeit und/oder Entfernung umfassen, die von der empfangenen Route benötigt wird. Zum Beispiel, wenn die Empfangsroute eine geschätzte Reisezeit von 1 Stunde aufweist und eine Kandidatenroute eine geschätzte Reisezeit von 45 Minuten aufweist. Die anfängliche Effizienz der empfangenen Route kann auf 75 % eingestellt werden.
  • In Schritt 234 bestimmt das Verfahren, ob das autonome Fahrzeug noch entlang der Route fährt. Das Verfahren empfängt in Schritt 236 eine aktualisierte Routenposition.
  • In einigen Ausführungsformen kann die aktualisierte Routenposition den aktuellen Standort, die Routenführungsschritte und das Ziel enthalten. Das Verfahren vergleicht diese aktualisierten Routenführungsinformationen erneut mit einem Satz generierter Kandidatenrouten. Das Verfahren aktualisiert dann in Schritt 233 die Routeneffizienz, wenn das autonome Fahrzeug entlang der Route fortschreitet.
  • Wenn das vorherige Beispiel fortgesetzt wird, kann die Aktualisierungsroute nach Ablauf von fünf Minuten eine Zeit von 55 Minuten aufweisen. Als eine erste Permutation kann die beste Kandidatenroute eine geschätzte Reisezeit von 40 Minuten aufweisen. In diesem Fall kann die aktuelle Routeneffizienz mit 72,7 % berechnet werden. Als eine zweite Permutation kann die beste Kandidatenroute eine geschätzte Reisezeit von 58 Minuten aufweisen. In diesem Fall übertrifft die aktuelle Routeneffizienz die Kandidatenrouten und die Effizienz kann mit 105 % berechnet werden.
  • In Schritt 234 bestimmt das Verfahren, dass die Route beendet wurde.
  • In Schritt 235 berechnet das Verfahren eine Gesamtrouteneffizienz.
  • In einer Ausführungsform kann das Verfahren die anfängliche Effizienz und die aktualisierten Effizienz mitteln. In der ersten vorstehenden Permutation beträgt die Gesamteffizienz 73,9 %. In der zweiten Permutation beträgt die Gesamteffizienz 90 %. In einigen Ausführungsformen können die aktualisierten Effizienzen höher gewichtet werden als die anfängliche Effizienz, um einen Schwerpunkt auf die aktualisierte Routenführung zu legen.
  • In einer Ausführungsform kann das Verfahren für jede eindeutige Route durchgeführt werden und jede eindeutige Route kann gemittelt werden, um eine Gesamtroutenführungseffizienz des autonomen Fahrzeugs zu erhalten. In einigen Ausführungsformen kann das Verfahren Routen basierend auf Routenführungseigenschaften segmentieren. Beispielsweise kann das Verfahren Routen mit ungewöhnlich hohem Verkehrsaufkommen verwerfen. Als zweites Beispiel kann das Verfahren Routen in lange Reisen und kurze Reisen klassifizieren. Als drittes Beispiel kann das Verfahren Routen in Stadt- oder Landrouten klassifizieren. Jeder segmentierte Routentyp kann einer aggregierten Routenführungseffizienz zugeordnet sein.
  • 2E ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Kosteneffizienzstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung darstellt.
  • In Schritt 241 empfängt das Verfahren Routenführungsinformationen und mit der Route verbundene Kosten.
  • Routenführungsinformationen wurden im Zusammenhang mit 2D erörtert und Details von Routenführungsinformationen werden hier nicht wiederholt, sondern werden in ihrer Gesamtheit durch Bezugnahme aufgenommen.
  • Wie hier verwendet, beziehen sich die Kosten auf die Ausgaben, die erforderlich sind, um eine bestimmte Route zu absolvieren. In einer Ausführungsform können die Kosten die Menge an Kraftstoff oder Energie umfassen, die erforderlich ist, um die Route basierend auf den Routenführungsinformationen und durchschnittlichen Kosten pro Meile abzuschließen. In einigen Ausführungsformen kann ein autonomes Fahrzeug die Kosteninformationen bereitstellen, während in anderen Ausführungsformen die Kosteninformationen durch das Verfahren basierend auf den Routenführungsinformationen und den historischen Kosteninformationen berechnet werden können.
  • In Schritt 242 bestimmt das Verfahren, ob eine Route weiter besteht.
  • Wenn die Route weiter besteht, überwacht das Verfahren die Route und die mit der Route verbundenen Kosten in Schritt 243.
  • In einer Ausführungsform kann das Verfahren eine Angabe der vom autonomen Fahrzeug verbrauchten Kraftstoff- oder Energiemenge und der aktuell zurückgelegten Strecke empfangen. Anhand dieser Informationen berechnet das Verfahren die durchschnittlichen Kosten der bisherigen Route und projiziert/aktualisiert die Kosten der Route für den Rest der Route.
  • In Schritt 244 aktualisiert das Verfahren die Kosteneffizienz des autonomen Fahrzeugs, nachdem festgestellt wurde, dass die Route in Schritt 242 beendet wurde.
  • In einer Ausführungsform bestimmt das Verfahren die Menge an Energie oder Kraftstoff, die während der Route verbraucht wird, und erhält die endgültige Streckenentfernung und -zeit. Das Verfahren verwendet diese Datenpunkte, um die durchschnittliche Kraftstoff- oder Energieeffizienz für die gegebene Route zu berechnen.
  • In einer Ausführungsform kann das Verfahren für jede eindeutige Route durchgeführt werden und jede eindeutige Route kann gemittelt werden, um eine Gesamtkosteneffizienz des autonomen Fahrzeugs zu erhalten. In einigen Ausführungsformen kann das Verfahren Routen basierend auf Routenführungseigenschaften segmentieren. Beispielsweise kann das Verfahren Routen mit ungewöhnlich hohem Verkehrsaufkommen verwerfen. Als zweites Beispiel kann das Verfahren Routen in lange Reisen und kurze Reisen klassifizieren. Als drittes Beispiel kann das Verfahren Routen in Stadt- oder Landrouten klassifizieren. Jeder segmentierte Routentyp kann einer aggregierten Kosteneffizienz zugeordnet sein.
  • 2F ist ein Ablaufdiagramm, das ein Verfahren zum Aktualisieren von Nicht-Routineaktivitätsstatistiken eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung darstellt.
  • Mit dem Aufkommen autonomer Fahrzeuge werden viele autonome Fahrzeuge während „Ausfallzeiten“ wieder verwendet, wenn solche autonomen Fahrzeuge nicht von ihren Hauptinsassen/-besitzern genutzt werden. Die Umnutzung autonomer Fahrzeuge stellt eine zusätzliche Metrik dar, die von potenziellen Käufern berücksichtigt werden kann, die zuvor bei nicht autonomen Fahrzeugen nicht existierten.
  • In Schritt 251 empfängt das Verfahren Benachrichtigungen zu nichtroutinemäßigen Aktivitäten.
  • In einer Ausführungsform kann eine Benachrichtigung zu nichtroutinemäßigen Aktivitäten durch den Prozessor eines autonomen Fahrzeugs als Reaktion auf ein Signal erzeugt werden, das das autonome Fahrzeug anweist, eine nichtroutinemäßige Aktivität auszuführen. Beispielsweise kann während der Abendstunden, in denen das Fahrzeug nicht verwendet wird, ein Dritter das autonome Fahrzeug anweisen, eine bestimmte Aufgabe auszuführen. Diese Anweisung wird von dem autonomen Fahrzeug vor dem Ausführen der Aufgabe protokolliert und kann an das Verfahren gesendet und von diesem empfangen werden.
  • In Schritt 252 überwacht das Verfahren die Leistung des autonomen Fahrzeugs, um zu bestimmen, ob die nichtroutinemäßige Aktivität andauert.
  • Wenn die Aktivität ausgeführt wird, überwacht das Verfahren die Aktivität, um festzustellen, ob die Aktivität beendet wurde, Schritt 253. In einigen Ausführungsformen kann das autonome Fahrzeug ein Signal an das Verfahren senden, das anzeigt, dass die Aktivität beendet ist. In anderen Ausführungsformen kann das Verfahren die Motorleistung überwachen, um zu bestimmen, wann der Motor für eine vorbestimmte Zeitdauer im Leerlauf ist (um Fehlalarme zu vermeiden, wenn der Motor vorübergehend ausgeschaltet ist).
  • Wenn das Verfahren feststellt, dass die nichtroutinemäßige Aktivität beendet wurde, berechnet das Verfahren die Zeit, die das autonome Fahrzeug für die Ausführung der nichtroutinemäßigen Aktivität aufgewendet hat, Schritt 254.
  • In einer Ausführungsform kann das Verfahren diese Zeit basierend auf den von dem autonomen Fahrzeug empfangenen Benachrichtigungen berechnen. Alternativ oder in Verbindung mit dem Vorstehenden kann das Verfahren die Zeit basierend auf den Start- und Stoppzeiten des Motors berechnen (oder bestätigen).
  • In Schritt 255 berechnet das Verfahren die Kosten und Einnahmen, die mit der nichtroutinemäßigen Aktivität verbunden sind.
  • In einer Ausführungsform können die mit der nichtroutinemäßigen Aktivität verbundenen Kosten die Kosten für verbrauchten Kraftstoff, anfallende Mautgebühren, angefallene Verkehrskarten und alle anderen mit der Durchführung der nichtroutinemäßigen Aktivität verbundenen Kosten umfassen. In einigen Ausführungsformen können die Kosten durch Einnahmen ausgeglichen werden, die das autonome Fahrzeug zur Durchführung der nichtroutinemäßigen Aktivität erzielt. Beispielsweise kann ein Dienstanbieter dem autonomen Fahrzeug den Kraftstoff oder die ausgegebenen Mautgebühren erstatten.
  • Das Verfahren kann ferner die Einnahmen berechnen, die mit der nichtroutinemäßigen Aktivität verbunden sind. In einigen Ausführungsformen können diese Einnahmen durch die Bedienperson des autonomen Fahrzeugs während der nichtroutinemäßigen Aktivität festgelegt werden. Beispielsweise kann die anfängliche Anweisung zum Ausführen einer nichtroutinemäßigen Aktivität mit einem „Vertragspreis“ zum Ausführen der nichtroutinemäßigen Aktivität verbunden sein. Dieser Preis kann mit verschiedenen Bedingungen oder Meilensteinen verbunden sein, die erfüllt sein müssen. Zusätzlich kann ein Abschluss-Handshake zwischen dem autonomen Fahrzeug und der Bedienperson der nichtroutinemäßigen Aktivität durchgeführt werden, wobei die Bedienperson den für die nichtroutinemäßige Aktivität gezahlten Betrag bestätigt.
  • In einer Ausführungsform zieht das Verfahren beliebige Kosten von den Einnahmen ab, um den Gesamtgewinn der nichtroutinemäßigen Aktivität zu erhalten.
  • In Schritt 256 aktualisiert das Verfahren die nichtroutinemäßigen Aktivitäten des autonomen Fahrzeugs.
  • In einer Ausführungsform erhöht das Verfahren die Anzahl von nichtroutinemäßigen Aktivitäten, die von dem autonomen Fahrzeug ausgeführt werden. Das Verfahren kann zusätzlich den Gesamtgewinn des autonomen Fahrzeugs erhöhen, der mit nichtroutinemäßigen Aktivitäten verbunden ist.
  • 3A ist ein Ablaufdiagramm, das ein Verfahren zum Erzeugen von Personalitäten eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
  • In Schritt 302 ruft das Verfahren einen Satz von Persönlichkeitsregeln ab.
  • In einer Ausführungsform umfasst eine Persönlichkeitsregel einen Satz statistischer Kategorien oder einen Satz von Teilen, die der Persönlichkeit zugeordnet sind. Jede statistische Kategorie oder jeder statistische Teil enthält eine Reihe von Bedingungen für die Erfüllung der Persönlichkeitsbeschränkungen. Zum Beispiel kann eine gegebene Persönlichkeit mit geringem Wartungsaufwand einen Satz von Teilen eines autonomen Fahrzeugs enthalten, die die Persönlichkeitsbewertung beeinflussen. Jedes Teil kann eine Reihe von Fehler- und/oder Reparaturbeschränkungen enthalten, die die Eigenschaften des Teils definieren, die zur Erfüllung der Persönlichkeit erforderlich sind. Um beispielsweise eine wartungsarme Persönlichkeit zu erreichen, muss ein bestimmtes Teil möglicherweise nur eine bestimmte Anzahl von Fehlern oder Reparaturen in einem bestimmten Zeitraum oder Kilometerstand aufweisen.
  • In Schritt 304 greift das Verfahren auf ein oder mehrere Fahrzeuge zu.
  • In einer Ausführungsform umfasst der Zugriff auf ein Fahrzeug das Abrufen eines autonomen Fahrzeugobjekts, das wie in den vorhergehenden Figuren erörtert erzeugt wurde. In einigen Ausführungsformen kann das autonome Fahrzeugobjekt bereits einer oder mehreren Persönlichkeiten zugeordnet sein. In dieser Ausführungsform kann das Verfahren das Konfidenzniveau dieser Persönlichkeiten aktualisieren. Wenn das autonome Fahrzeugobjekt keine Persönlichkeit hat, fährt das Verfahren mit der Festlegung einer anfänglichen Persönlichkeit für das autonome Fahrzeug fort.
  • In Schritt 306 wählt das Verfahren eine gegebene Persönlichkeit aus der Liste von Persönlichkeiten aus, die durch Persönlichkeitsregeln dargestellt werden.
  • In Schritt 308 wählt das Verfahren eine gegebene Komponente oder statistische Kategorien aus, die der Persönlichkeit zugeordnet sind.
  • In Schritt 310 bestimmt das Verfahren, ob Daten für die gegebene Kategorie oder den gegebenen Teil vorhanden sind.
  • Wenn keine Daten vorhanden sind, bestimmt das Verfahren in Schritt 316, ob noch Kategorien oder Komponenten auf die gegebene Persönlichkeit untersucht werden müssen.
  • Wenn alternativ das ausgewählte autonome Fahrzeugobjekt Daten enthält, die für die Kategorien oder Komponenten relevant sind, aktualisiert das Verfahren die Persönlichkeit basierend auf den Daten in Schritt 312.
  • In einer Ausführungsform ruft das Verfahren die Komponenten- oder Kategoriedaten ab und vergleicht die vorhandenen Daten mit den Persönlichkeitsanforderungen für die gegebene Kategorie oder Komponente. Wenn beispielsweise die angegebene Kategorie die Persönlichkeitsanforderungen erfüllt, kann davon ausgegangen werden, dass die Kategorie die ausgewählte Persönlichkeit unterstützt. In diesem Szenario aktualisiert das Verfahren einen Konfidenzwert für die Persönlichkeit basierend auf der übereinstimmenden Kategorie/Komponente.
  • In Schritt 314 passt das Verfahren die Gewichtung der Kategorie oder Komponente an.
  • In einigen Ausführungsformen können bestimmte Kategorien oder Komponenten mehr zur Konfidenz der Persönlichkeit beitragen. Zum Beispiel können Motorfehler gegenüber einer Persönlichkeit mit geringer Wartung eine starke Gewichtung aufweisen, während niedrige Flüssigkeitsstände gegenüber einer Persönlichkeit mit geringer Wartung nur eine geringe Gewichtung aufweisen können. In einigen Ausführungsformen kann eine gegebene Persönlichkeit Gewichtungen beinhalten, die jeder in Schritt 308 ausgewählten Komponente/Kategorie zugewiesen sind. Somit berücksichtigt das Verfahren die Gewichtungen, wenn die Konfidenz der Persönlichkeitszuweisung erhöht wird. Somit kann ein autonomes Fahrzeug mit Komponenten mit Fehlern, bei denen diese Komponenten nicht stark gewichtet sind, einer Persönlichkeit mit hohem Wartungsaufwand zugeordnet werden, während die Konfidenz dieser Persönlichkeit auf einen niedrigen Wert eingestellt werden kann.
  • Das Verfahren wiederholt die Schritte 308 bis 314 für jeden verbleibenden Teil (Schritt 316). Das Verfahren wiederholt zusätzlich die Schritte 306 bis 316 für jede Persönlichkeit (Schritt 318) und die Schritte 304 bis 318 für jedes autonome Fahrzeug (Schritt 320).
  • Somit weist das Verfahren nach Abschluss von Schritt 320 jedes autonome Fahrzeug mit einer entsprechenden Konfidenzbewertung zu, die auf den gesammelten und analysierten autonomen Fahrzeugdaten basiert, zu jeder Persönlichkeit zu.
  • In Schritt 322 speichert das Verfahren die Persönlichkeiten.
  • In einer Ausführungsform kann das Verfahren jede Persönlichkeit für jedes autonome Fahrzeug als Teil eines autonomen Fahrzeugobjekts speichern. In einigen Ausführungsformen kann das in 3A dargestellte Verfahren periodisch erneut ausgeführt werden, um die Persönlichkeitszuweisungen kontinuierlich zu verfeinern. In einigen Ausführungsformen kann das in 3A dargestellte Verfahren in Verbindung mit dem Empfang neuer autonomer Fahrzeugdaten ausgeführt werden, die auf die in den 2A-2F dargestellten Arten ausgewertet werden.
  • Obwohl das in 3A veranschaulichte Verfahren in der Lage ist, ein gegebenes autonomes Fahrzeug einer Gruppe von Persönlichkeiten zuzuweisen, kann sich das Verfahren kann sich als rechenintensiv erweisen, wenn die Anzahl autonomer Fahrzeuge, Datenpunkte und Persönlichkeiten zunimmt. Somit stellen die offenbarten Ausführungsformen ferner eine automatisierte Technik zum Vorhersagen von Persönlichkeiten unter Verwendung von Clustering-Algorithmen, NLP-Syntheseroutinen und neuronalen Netzen bereit. Beispiele für diese Algorithmen werden nachstehend ausführlicher beschrieben.
  • 3B ist ein Ablaufdiagramm, das ein Verfahren zum Erzeugen von Personalitäten eines autonomen Fahrzeugs unter Verwendung von Algorithmen zum maschinellen Lernen gemäß einigen Ausführungsformen der Offenbarung veranschaulicht.
  • In Schritt 324 ruft das Verfahren autonome Fahrzeugobjekte ab.
  • In einer Ausführungsform umfasst das autonome Fahrzeugobjekt eine Identifizierung eines Fahrzeugs und eine oder mehrere autonome Fahrzeugstatistiken, die in den vorstehend diskutierten Ausführungsformen erzeugt wurden und auf die hierin in ihrer Gesamtheit Bezug genommen wird.
  • In Schritt 326 gruppiert und klassifiziert das Verfahren die autonomen Fahrzeugobjekte unter Verwendung eines Algorithmus für maschinelles Lernen.
  • Für die Zwecke von Schritt 326 kann jedes autonome Fahrzeugobjekt als ein Vektor von Statistiken betrachtet werden (z. B. Reparaturstatistiken, Entscheidungsfindungsstatistiken usw.). Angesichts der großen Anzahl autonomer Fahrzeugobjekte kann die Fähigkeit menschlicher Datenaufbereiter, Clustermuster in einem potenziell großen Datensatz zu identifizieren, eine erhebliche Herausforderung darstellen.
  • Somit verwendet das Verfahren in Schritt 326 ein Clustering-Routenführung, um Cluster von autonomen Fahrzeugobjekten basierend auf den in den autonomen Fahrzeugvektoren enthaltenen Statistiken automatisch zu identifizieren.
  • Verschiedene Clustering-Algorithmen können verwendet werden, vorausgesetzt, die Algorithmen unterstützen das Clustering hochdimensionaler Daten. Wie zu erkennen ist, können die Vektoren, die die autonomen Fahrzeugobjekte darstellen, angesichts der Anzahl der statistischen Kategorien möglicherweise Tausende von Dimensionen beinhalten. Somit kann in einigen Ausführungsformen ein Subraum-Clustering, ein projiziertes Clustering, ein Korrelationsclustering oder eine Kombination dieser Clustering-Techniken verwendet werden, um die autonomen Fahrzeugobjekte in eindeutige Subräume zu gruppieren.
  • In einigen Ausführungsformen kann die Ausgabe von Schritt 326 eine Reihe von Clustervektoren umfassen, die die Clusterparameter darstellen, die unter Verwendung der Clusteralgorithmen identifiziert wurden. Jeder Clustervektor kann zusätzlich eine Rückwärtsreferenz auf die dem Cluster zugeordneten autonomen Fahrzeugobjekte beibehalten.
  • In Schritt 328 erzeugt das Verfahren einen Persönlichkeitsdeskriptor für jeden Cluster.
  • Wie zuvor beschrieben, identifiziert ein Clustervektor die Statistiken, die zum Clustering einer Teilmenge der autonomen Fahrzeugobjekte verwendet werden. Beispielsweise kann der Clustervektor eine hohe Übertragungsreparaturfrequenz, eine niedrige Routeneffizienz und eine hohe allgemeine kritische Fehlerstufe beinhalten. Dieser Vektor zeigt an, dass der Cluster im Allgemeinen als „kostenintensive“ Persönlichkeit eingestuft werden kann.
  • Um den Clustervektor in eine Persönlichkeitsmarkierung umzuwandeln, kann das Verfahren verschiedene NLP-Techniken verwenden. Erstens kann das Verfahren die Marke, das Modell und das Baujahr jedes autonomen Fahrzeugs in dem Cluster extrahieren. Das Verfahren kann dann eine Vielzahl von Bewertungen, Benutzerkommentaren oder anderen Textbeschreibungen der autonomen Fahrzeuge extrahieren. Diese textbasierten Beschreibungen können erhalten werden, indem autonome Fahrzeugwebsites von Drittanbietern, Herstellerseiten und jede Quelle, die solche Daten bereitstellt, abgesucht werden.
  • Das Verfahren verwendet diese textbasierten Beschreibungen und verwendet die NLP-Empfindungsanalyse, um die aus den Überprüfungen extrahierten allgemeinen Empfindungen zu messen. In einer Ausführungsform gibt die Empfindungsanalyse eine Liste potenzieller Empfindungen für den gegebenen Eingabedatensatz aus. Zum Beispiel kann das Verfahren die Empfindungen „unzuverlässig“, „hohe Kosten“, „komfortables Interieur“, „niedriger Preis“ und „häufige Reparaturen“ erzeugen. Wie zu sehen ist, hängen einige Empfindungen nicht mit dem Clustervektor zusammen. Insbesondere ist ein komfortables Interieur nicht eindeutig mit dem Clustervektor korreliert.
  • Das Verfahren kann die Empfindungen basierend auf dem Clustervektor basierend auf der Art der im Vektor enthaltenen Statistiken einstufen. Beispielsweise kann das Verfahren die Ähnlichkeit der Clustervektor-Statistiktypen mit den Empfindungen vergleichen. Beispielsweise korreliert die Clusterstatistik „hohe Getriebereparaturfrequenz“ stark mit der Empfindung „häufige Reparaturen“, während sie weniger mit „komfortablem Innenraum“ und „niedrigem Preis“ korreliert. Daher stuft das Verfahren die Empfindung „häufige Reparaturen“ höher ein als andere Empfindungen. In ähnlicher Weise kann die „unzuverlässige“ Empfindung höher eingestuft werden als andere Empfindungen.
  • Auf diese Weise erzeugt das Verfahren eine Vielzahl von hochrangigen Empfindungen, die als Persönlichkeitstypen verwendet werden können. In einer Ausführungsform kann das Verfahren diese Empfindungstypen verwenden, um zukünftige Durchläufe des Verfahrens zu „säen“. Das heißt, das Verfahren kann verfeinert werden, um zuvor erkannte Empfindungen höher einzustufen als neu gefundene Empfindungen, um sicherzustellen, dass der Persönlichkeitsraum nicht mit dünn besiedelten Persönlichkeiten überfordert ist.
  • In einigen Ausführungsformen kann das Verfahren den Persönlichkeiten zusätzlich eine Konfidenz zuweisen. In einigen Ausführungsformen kann das Verfahren den Prozentsatz der Konfidenzen auf alle Persönlichkeiten verteilen, so dass die Gesamtpunktzahl der Persönlichkeiten gleich eins ist. In anderen Ausführungsformen kann jede Persönlichkeit unabhängig bewertet werden.
  • In Schritt 330 trainiert das Verfahren ein neuronales Netzwerk unter Verwendung der autonomen Fahrzeugobjektparameter und der Persönlichkeit.
  • In der dargestellten Ausführungsform ist die Ausgabe von Schritt 328 effektiv ein autonomes Fahrzeugobjekt und eine Persönlichkeit. Somit kann die Ausgabe von Schritt 328 als Trainingsdatensatz eines Klassifikators für maschinelles Lernen verwendet werden. Im Wesentlichen verwendet das Verfahren eine Reihe autonomer Fahrzeugobjekte, denen unter Verwendung der Clustering-Routine und der NLP-Routinen eine Persönlichkeit zugewiesen wurde, um ein verallgemeinertes maschinelles Lernsystem zu trainieren, das zukünftige autonome Fahrzeugobjekte klassifizieren kann.
  • In der dargestellten Ausführungsform wird ein neuronales Netzwerk als maschinelles Lernsystem verwendet, obwohl andere maschinelle Lernmodelle genutzt werden können. In der dargestellten Ausführungsform werden die autonomen Fahrzeugobjekte, denen eine Persönlichkeit zugewiesen ist, als Trainingseingabe verwendet, und die Gewichtungen der Knoten des neuronalen Netzwerks werden abgestimmt, um die korrekte Ausgabe zu erhalten, wobei die Ausgabe die identifizierte Persönlichkeit umfasst.
  • In einer Ausführungsform kann jeder in Schritt 328 erfassten Persönlichkeit ein separates neuronales Netzwerk zugewiesen werden. In alternativen Ausführungsformen kann die Ausgabe des neuronalen Netzwerks einen Vektor mit einer Dimensionalität umfassen, die gleich der Gesamtzahl von Persönlichkeiten ist, wobei jede Dimension eine Konfidenz dahingehend darstellt, dass die gegebene Eingabe mit der Persönlichkeit übereinstimmt. In einer Ausführungsform können verschiedene Arten von neuronalen Netzen verwendet werden, wie beispielsweise neuronale Faltungsnetze, tiefe neuronale Netze, wiederkehrende neuronale Netze, neuronale Netze mit langem Kurzzeitgedächtnis usw.
  • 4 ist ein Blockdiagramm eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung.
  • Das in 4 veranschaulichte System kann vollständig in ein Fahrzeug eingebaut werden. In einigen Ausführungsformen können einige Komponenten (z. B. andere Komponenten und Subsysteme als das Subsystem (404)) vorhandene autonome Fahrzeugsubsysteme umfassen.
  • Das System umfasst ein Subsystem (402) eines autonomes Fahrzeugs. In der dargestellten Ausführungsform umfasst das Subsystem (402) eines autonomen Fahrzeugs eine Kartendatenbank (402A), Radargeräte (402B), Lidar-Geräte (402C), Digitalkameras (402D), Sonargeräte (402E), GPS-Empfänger (402F) und Trägheitsmesseinheiten (402G). Jede der Komponenten des Subsystems (402) eines autonomen Fahrzeugs umfasst Standardkomponenten, die in den meisten gegenwärtigen autonomen Fahrzeugen bereitgestellt werden. In einer Ausführungsform speichert die Kartendatenbank (402A) mehrere hochauflösende dreidimensionale Karten, die zur Routenführung und zum Navigieren verwendet werden. Radargeräte (402B), Lidargeräte (402C), Digitalkameras (402D), Sonargeräte (402E), GPS-Empfänger (402F) und Trägheitsmesseinheiten (402G) können verschiedene jeweilige Geräte umfassen, die an verschiedenen Positionen im gesamten autonomen Fahrzeug installiert sind, wie dem Fachmann bekannt. Beispielsweise können diese Vorrichtungen entlang des Umfangs eines autonomen Fahrzeugs installiert sein, um Standortbewusstsein, Kollisionsvermeidung und andere standardmäßige Funktionen eines autonomen Fahrzeugs bereitzustellen.
  • Das Fahrzeugsubsystem (406) ist zusätzlich in dem System beinhaltet. Das Fahrzeugsubsystem (406) umfasst verschiedene Antiblockiersysteme (406A), Motorsteuereinheiten (402B) und Getriebesteuereinheiten (402C). Diese Komponenten können dazu verwendet werden, den Betrieb des autonomen Fahrzeugs als Reaktion auf die von dem Subsystem (402A) eines autonomen Fahrzeugs erzeugten Streaming-Daten zu steuern. Die standardmäßigen Wechselwirkungen eines autonomen Fahrzeugs zwischen dem Subsystem (402) eines autonomen Fahrzeugs und dem Fahrzeugsubsystem (406) sind dem Fachmann allgemein bekannt und werden hier nicht im Detail beschrieben.
  • Die Verarbeitungsseite des Systems umfasst einen oder mehrere Prozessoren (410), einen Kurzzeitspeicher (412), ein HF-System (414), Grafikprozessoren (graphics processing units - GPU) (416), einen Langzeitspeicher (418) und eine oder mehrere Schnittstellen (420).
  • Der eine oder die mehreren Prozessoren (410) können Zentraleinheiten, FPGA oder einen beliebigen Bereich von Verarbeitungsvorrichtungen umfassen, die zur Unterstützung des Betriebs des autonomen Fahrzeugs erforderlich sind. Der Speicher (412) umfasst einen DRAM oder einen anderen geeigneten flüchtigen RAM zum vorübergehenden Speichern von Daten, die von den Prozessoren (410) benötigt werden. Das HF-System (414) kann einen zellularen Sendeempfänger und/oder einen Satelliten-Sendeempfänger umfassen. Der Langzeitspeicher (418) kann ein oder mehrere Solid-State-Laufwerke (solid-state drives - SSD) mit hoher Kapazität umfassen. Im Allgemeinen kann eine Langzeitspeicherung (418) genutzt werden, um beispielsweise hochauflösende Karten, Routenführungsdaten und andere Daten, die eine permanente oder semipermanente Speicherung erfordern, zu speichern. GPU (416) können eine weitere GPU-Vorrichtung mit hohem Durchsatz zum Verarbeiten von Daten, die von dem Subsystem (402A) eines autonomen Fahrzeugs empfangen werden, umfassen. Schließlich können Schnittstellen (420) verschiedene Anzeigeeinheiten umfassen, die innerhalb des autonomen Fahrzeugs positioniert sind (z. B. einen Bildschirm im Armaturenbrett).
  • Das System beinhaltet zusätzlich ein Berichtssubsystem (404), das die gesamte Datenerfassung durchführt, die für die in den vorhergehenden Figuren dargestellten Verfahren erforderlich ist. Das Berichtssubsystem (404) umfasst einen Sensormonitor (404A), der mit dem Bus (408) verbunden ist und auf dem Bus (408) übertragene Sensordaten sowie auf dem Bus übertragene Protokolldaten aufzeichnet. Das Berichtssubsystem (404) kann zusätzlich einen oder mehrere Endpunkte beinhalten, damit Systemkomponenten Protokolldaten direkt an das Berichtssubsystem (404) übertragen können.
  • Das Berichtssubsystem (404) beinhaltet zusätzlich einen Verpacker (404B). In einer Ausführungsform ruft der Verpacker (404B) die Daten vom Sensormonitor (404A) oder den Endpunkten ab und verpackt die Rohdaten zur Übertragung an ein zentrales System (in 5 veranschaulicht). In einigen Ausführungsformen kann der Verpacker (404B) dazu konfiguriert sein, Daten in periodischen Zeitintervallen zu verpacken. Alternativ oder in Verbindung mit dem Vorstehenden kann der Verpacker (404B) Daten in Echtzeit übertragen und Daten komprimieren, um die Echtzeitkommunikation mit einem zentralen System zu erleichtern.
  • Das Berichtssubsystem (404) beinhaltet zusätzlich einen Stapelprozessor (404C). In einer Ausführungsform ist der Stapelprozessor (404C) dazu konfiguriert, eine Vorverarbeitung für aufgezeichnete Daten vor der Übertragung durchzuführen. Beispielsweise kann der Stapelprozessor (404C) Komprimierungsvorgänge für die Daten ausführen, bevor sie von dem Verpacker (404B) verpackt werden. In einer anderen Ausführungsform kann der Stapelprozessor (404C) dazu konfiguriert sein, die aufgezeichneten Daten zu filtern, um fremde Daten vor dem Verpacken oder Übertragen zu entfernen. In einer anderen Ausführungsform kann der Stapelprozessor (404C) dazu konfiguriert sein, eine Datenbereinigung an den aufgezeichneten Daten durchzuführen, um die Rohdaten an ein Format anzupassen, das zur weiteren Verarbeitung durch das zentrale System geeignet ist.
  • Jedes der Geräte ist über einen Bus (408) verbunden. In einer Ausführungsform kann der Bus (408) einen Controller Area Network (CAN)-Bus umfassen. In einigen Ausführungsformen können andere Bustypen verwendet werden (z. B. ein FlexRay- oder ein MOST-Bus). Zusätzlich kann jedes Subsystem einen oder mehrere zusätzliche Busse enthalten, um die interne Subsystemkommunikation zu handhaben (z. B. LIN-Busse für Kommunikationen mit geringerer Bandbreite).
  • 5 ist ein Blockdiagramm eines zentralisierten Betriebssystems eines autonomen Fahrzeugs gemäß einigen Ausführungsformen der Offenbarung.
  • Wie veranschaulicht, umfasst das System eine Reihe autonomer Fahrzeuge (502A-502E). In einer Ausführungsform kann jedes autonome Fahrzeug ein autonomes Fahrzeug wie das in 4 dargestellte umfassen, auf dessen Offenbarung hiermit in vollem Umfang Bezug genommen wird. Jedes autonome Fahrzeug (502A-502E) kann über ein Netzwerk (506) mit einem zentralen System (504) kommunizieren. In einer Ausführungsform umfasst das Netzwerk (506) ein globales Netzwerk wie das Internet.
  • Das System beinhaltet zusätzlich mehrere Client-Vorrichtungen (508A, 508B). In der dargestellten Ausführungsform können Client-Vorrichtungen (508A, 508B) eine beliebige Personal-Computing-Vorrichtung (z. B. einen Laptop, ein Tablet, ein Mobiltelefon usw.) umfassen. Client-Vorrichtungen (508A, 508B) können Datenanforderungen von dem zentralen System (504) ausgeben. In einer Ausführungsform übertragen Client-Vorrichtungen (508A, 508B) Datenanforderungen, um mobile Anwendungen oder Webseitendaten zu unterstützen, wie zuvor beschrieben.
  • Das zentrale System (504) beinhaltet eine Vielzahl von Servern (504A). In einer Ausführungsform umfassen Server (504A) mehrere Front-End-Webserver, die dazu konfiguriert sind, Antworten an die Clientvorrichtung (508A, 508B) zu liefern. Die Server (504A) können zusätzlich einen oder mehrere Anwendungsserver konfigurieren, die zum Ausführen der in den vorherigen Flussdiagrammen diskutierten Vorgänge konfiguriert sind.
  • Das zentrale System (504) beinhaltet zusätzlich eine Vielzahl von Modellen (504B). In einer Ausführungsform können die Modelle (504B) durch die zuvor beschriebenen Prozesse erzeugt werden. Insbesondere können Modelle (504B) ein oder mehrere neuronale Netze zum Klassifizieren autonomer Fahrzeugobjekte in verschiedene Persönlichkeiten speichern. Die Modelle (504B) können zusätzlich Modelle zum Vorhersagen zukünftiger Ereignisse enthalten, wie zuvor erörtert. In einigen Ausführungsformen können die Modelle (504B) eine Kombination von neuronalen Netzen und anderen zuvor erörterten Modellen zum maschinellen Lernen speichern.
  • Das zentrale System (504) beinhaltet zusätzlich eine oder mehrere Datenbanken (504C). Die Datenbanken (504C) können Datenbankeinträge für Fahrzeuge (504D), Persönlichkeiten (504E) und Rohdaten (504F) enthalten. In einer Ausführungsform können die Fahrzeuge (504D) die überall erörterten autonomen Fahrzeugobjekte beinhalten. Persönlichkeiten (504E) können Details zu den Persönlichkeiten beinhalten, darunter Regeln, die Bedingungen für die Erfüllung einer Persönlichkeit definieren. Rohdaten (504F) können eine unstrukturierte Datenbank zum Speichern von Rohdaten umfassen, die von Sensoren und Protokollen empfangen wurden, wie zuvor erörtert.
  • Der vorstehend offenbarte Gegenstand kann jedoch in einer Vielzahl unterschiedlicher Formen verkörpert sein, und daher soll der abgedeckte oder beanspruchte Gegenstand so ausgelegt werden, dass er nicht auf irgendwelche hierin dargelegten beispielhaften Ausführungsformen beschränkt ist; beispielhafte Ausführungsformen dienen lediglich der Veranschaulichung. Ebenso ist ein einigermaßen breiter Anwendungsbereich für beanspruchte oder abgedeckte Gegenstände vorgesehen. Unter anderem kann der Gegenstand als Verfahren, Vorrichtungen, Komponenten oder Systeme verkörpert sein. Dementsprechend können Ausführungsformen beispielsweise die Form von Hardware, Software, Firmware oder einer beliebigen Kombination davon (außer Software an sich) annehmen. Die folgende detaillierte Beschreibung ist deshalb nicht in einem beschränkenden Sinn aufzufassen.
  • In der gesamten Patentschrift und den Ansprüchen können Begriffe nuancierte Bedeutungen haben, die im Kontext vorgeschlagen oder impliziert werden und über eine explizit angegebene Bedeutung hinausgehen. Ebenso bezieht sich der Ausdruck „in einer Ausführungsform“, wie er hierin verwendet wird, nicht notwendigerweise auf dieselbe Ausführungsform, und der Ausdruck „in einer anderen Ausführungsform“, wie er hierin verwendet wird, bezieht sich nicht notwendigerweise auf eine andere Ausführungsform. Es ist beispielsweise beabsichtigt, dass der beanspruchte Gegenstand Kombinationen von beispielhaften Ausführungsformen ganz oder teilweise umfasst.
  • Im Allgemeinen kann die Terminologie zumindest teilweise aus der Verwendung im Kontext verstanden werden. Beispielsweise können Begriffe wie „und“, „oder“ oder „und/oder“, wie sie hierin verwendet werden, eine Vielzahl von Bedeutungen beinhalten, die zumindest teilweise von dem Kontext abhängen können, in dem derartige Begriffe verwendet werden. In der Regel bedeutet „oder“, wenn es zum Zuordnen einer Liste wie A, B oder C verwendet wird, A, B und C, was hier im einschließenden Sinne verwendet wird, sowie A, B oder C, was hier im ausschließenden Sinn verwendet wird. Zusätzlich kann der Begriff „eine/s/r oder mehrere“, wie er hierin verwendet wird, zumindest teilweise abhängig vom Kontext verwendet werden, um ein Merkmal, eine Struktur oder eine Eigenschaft in einem singulären Sinne zu beschreiben, oder kann dazu verwendet werden, Kombinationen von Merkmalen, Strukturen oder Eigenschaften im Plural zu beschreiben. In ähnlicher Weise können Begriffe wie „ein“, „eine“ oder „der/die/das“ wiederum so verstanden werden, dass sie eine singuläre Verwendung oder eine pluralistische Verwendung vermitteln, was zumindest teilweise vom Kontext abhängig ist. Darüber hinaus kann der Begriff „basierend auf“ so verstanden werden, dass er nicht unbedingt einen ausschließlichen Satz von Faktoren vermitteln soll, sondern stattdessen die Existenz zusätzlicher Faktoren ermöglichen kann, die wiederum nicht unbedingt ausdrücklich beschrieben werden, was zumindest teilweise vom Kontext abhängig ist.
  • Die vorliegende Offenbarung wird unter Bezugnahme auf Blockdiagramme und Betriebsabbildungen von Verfahren und Vorrichtungen beschrieben. Es versteht sich, dass jeder Block der Blockdiagramme oder Betriebsveranschaulichungen und Kombinationen von Blöcken in den Blockdiagrammen oder Betriebsveranschaulichungen durch Computerprogrammanweisungen analoge oder digitale Hardware- und Computerprogrammanweisungen umgesetzt werden können. Diese Computerprogrammanweisungen können einem Prozessor eines allgemeinen Computers, um dessen Funktionen wie hierin dargelegt zu ändern, eines Spezialcomputers, ASIC oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, so dass die Anweisungen, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, die Funktionen/Handlungen, die in den Blockdiagrammen oder dem Betriebsblock oder den Betriebsblöcken angegeben sind, umsetzen. In einigen alternativen Umsetzungen können die in den Blöcken angegebenen Funktionen/Handlungen außerhalb der in den Betriebsveranschaulichungen angegebenen Reihenfolge auftreten. Beispielsweise können zwei aufeinanderfolgend gezeigte Blöcke tatsächlich im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können mitunter abhängig von der jeweiligen Funktion in der umgekehrten Reihenfolge ausgeführt werden.
  • Diese Computerprogrammanweisungen können einem Prozessor eines allgemeinen Computers, um dessen Funktionen für einen besonderen Zweck zu ändern, eines Spezialcomputers, ASIC oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, so dass die Anweisungen, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, die Funktionen/Handlungen, die in den Blockdiagrammen oder dem Betriebsblock oder den Betriebsblöcken angegeben sind, umzusetzen, wodurch deren Funktion gemäß den Ausführungsformen hierin umgewandelt wird.
  • Für die Zwecke dieser Offenbarung speichert ein computerlesbares Medium (oder ein computerlesbares Speichermedium/computerlesbare Speichermedien) Computerdaten, wobei die Daten Computerprogrammcode (oder computerausführbare Anweisungen) beinhalten können, die von einem Computer in maschinenlesbarer Form ausgeführt werden können. Beispielsweise und nicht einschränkend kann ein computerlesbares Medium computerlesbare Speichermedien zur materiellen oder festen Speicherung von Daten oder Kommunikationsmedien zur vorübergehenden Interpretation von codehaltigen Signalen umfassen. Computerlesbare Speichermedien, wie hierin verwendet, beziehen sich auf physischen und materiellen Speicher (im Gegensatz zu Signalen) und beinhalten unter anderem flüchtige und nichtflüchtige, entfernbare und nicht entfernbare Medien, die in jedem beliebigen Verfahren oder jeder beliebigen Technologie zum materiellen Speichern von Informationen wie etwa computerlesbaren Anweisungen, Datenstrukturen, Programmmodulen oder anderen Daten umgesetzt sind. Computerlesbare Speichermedien beinhalten unter anderem RAM, ROM, EPROM, EEPROM, Flash-Speicher oder andere Solid-State-Speichertechnologie, CD-ROM, DVD oder einen anderen optischen Speicher, Magnetkassetten, Magnetband, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes physisches oder materielles Medium, das zum materiellen Speichern der gewünschten Informationen oder Daten oder Anweisungen verwendet werden kann und auf das durch einen Computer oder Prozessor zugegriffen werden kann.
  • Für die Zwecke dieser Offenbarung ist ein Modul ein Software-, Hardware- oder Firmware-System (oder Kombinationen davon), ein Prozess oder eine Funktionalität oder eine Komponente davon, das/die die hierin beschriebenen Prozesse, Merkmale und/oder Funktionen (mit oder ohne menschliche Interaktion oder Verstärkung) ausführt oder ermöglicht. Ein Modul kann Untermodule beinhalten. Softwarekomponenten eines Moduls können zur Ausführung durch einen Prozessor auf einem computerlesbaren Medium gespeichert werden. Module können in einen oder mehrere Server integriert sein oder von einem oder mehreren Servern geladen und ausgeführt werden. Ein oder mehrere Module können zu einer Engine oder einer Anwendung zusammengefasst werden.
  • Der Fachmann wird erkennen, dass die Verfahren und Systeme der vorliegenden Offenbarung auf viele Arten umgesetzt werden können und als solche nicht durch die vorstehenden beispielhaften Ausführungsformen und Beispiele eingeschränkt werden sollen. Mit anderen Worten können Funktionselemente, die von einer oder mehreren Komponenten in verschiedenen Kombinationen von Hardware und Software oder Firmware und einzelnen Funktionen ausgeführt werden, auf Softwareanwendungen entweder auf Client- oder Serverebene oder auf beiden verteilt werden. In dieser Hinsicht kann eine beliebige Anzahl der Merkmale der verschiedenen hier beschriebenen Ausführungsformen zu einzelnen oder mehreren Ausführungsformen kombiniert werden, und alternative Ausführungsformen mit weniger oder mehr als allen hierin beschriebenen Merkmalen sind möglich.
  • Die Funktion kann auch ganz oder teilweise auf mehrere Komponenten verteilt sein, und zwar auf eine Weise, die jetzt bekannt ist oder bekannt werden wird. Somit sind unzählige Software/Hardware/Firmware-Kombinationen möglich, um die hierin beschriebenen Funktionen, Merkmale, Schnittstellen und Präferenzen zu erreichen. Darüber hinaus umfasst der Umfang der vorliegenden Offenbarung herkömmlich bekannte Arten zur Ausführung der beschriebenen Merkmale und Funktionen und Schnittstellen sowie solche Variationen und Modifikationen, die an den hierin beschriebenen Hardware- oder Software- oder Firmware-Komponenten vorgenommen werden können, wie dies durch den Fachmann auf dem Gebiet jetzt und hiernach verstanden wird.
  • Darüber hinaus werden die Ausführungsformen von Verfahren, die in dieser Offenbarung als Ablaufdiagramme vorgestellt und beschrieben sind, beispielhaft bereitgestellt, um ein vollständigeres Verständnis der Technologie bereitzustellen. Die offenbarten Verfahren sind nicht auf die hierin dargestellten Operationen und den logischen Ablauf beschränkt. Es werden alternative Ausführungsformen in Betracht gezogen, bei denen die Reihenfolge der verschiedenen Operationen geändert wird und bei denen Unteroperationen, die als Teil einer größeren Operation beschrieben werden, unabhängig voneinander ausgeführt werden.
  • Während verschiedene Ausführungsformen für die Zwecke dieser Offenbarung beschrieben wurden, sollte nicht davon ausgegangen werden, dass derartige Ausführungsformen die Lehre dieser Offenbarung auf diese Ausführungsformen beschränken. An den vorstehend beschriebenen Elementen und Operationen können verschiedene Änderungen und Modifikationen vorgenommen werden, um ein Ergebnis zu erhalten, das in dem Rahmen der in dieser Offenbarung beschriebenen Systeme und Prozesse verbleibt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 15851730 [0001]

    Claims (20)

    1. Verfahren, umfassend: Empfangen von Daten von einem autonomen Fahrzeug; Erzeugen eines Vektors, der das autonome Fahrzeug darstellt, basierend auf den Daten; Klassifizieren des Vektors in eine oder mehrere Persönlichkeiten; Empfangen einer Suchabfrage von einem Benutzer; Identifizieren eines oder mehrerer autonomer Fahrzeuge, die auf die Suchabfrage reagieren, basierend auf Persönlichkeiten, die dem einen oder den mehreren autonomen Fahrzeugen zugeordnet sind, wobei das eine oder die mehreren autonomen Fahrzeugen das autonome Fahrzeug beinhalten; und Übertragen des einen oder der mehreren autonomen Fahrzeuge an den Benutzer.
    2. Verfahren nach Anspruch 1, wobei die Daten Daten umfassen, die von einem oder mehreren an dem autonomen Fahrzeug installierten Sensoren aufgezeichnet werden.
    3. Verfahren nach Anspruch 2, wobei die Daten ferner Protokolldaten umfassen, die durch Überwachen eines Busses des autonomen Fahrzeugs aufgezeichnet werden.
    4. Verfahren nach Anspruch 1, wobei das Erzeugen eines Vektors Berechnen von Häufigkeiten und Mengen von Reparaturen und Fehlern, die in den Daten enthalten sind, umfasst.
    5. Verfahren nach Anspruch 1, wobei das Erzeugen eines Vektors Berechnen von Mengen von schnellen Beschleunigungen und Verzögerungen, die in den Daten enthalten sind, umfasst.
    6. Verfahren nach Anspruch 1, wobei das Erzeugen eines Vektors Identifizieren eines oder mehrerer Entscheidungspunkte, die in den Daten enthalten sind, umfasst.
    7. Verfahren nach Anspruch 1, wobei das Erzeugen eines Vektors Berechnen einer oder mehrerer von einer Routenführungseffizienz oder Kosteneffizienz basierend auf den in den Daten enthaltenen Routenführungsdaten umfasst.
    8. Verfahren nach Anspruch 1, wobei das Erzeugen eines Vektors Berechnen von Kosten und Gewinnen, die von dem autonomen Fahrzeug während nichtroutinemäßiger Aktivitäten erzeugt werden, basierend auf den Daten umfasst.
    9. Verfahren nach Anspruch 1, wobei das Klassifizieren des Vektors in eine oder mehrere Persönlichkeiten Analysieren jeder Komponente des autonomen Fahrzeugs und Zuweisen einer Persönlichkeit zu dem autonomen Fahrzeug umfasst, wenn Statistiken, die einer jeweiligen Komponente zugeordnet sind, einen vordefinierten Schwellenwert überschreiten.
    10. Verfahren nach Anspruch 1, ferner umfassend: Auswählen einer Reihe von autonomen Fahrzeugobjekten; Clustern der Reihe von autonomen Fahrzeugobjekten in einen Satz von Clustern; Zuweisen, zu jedem Cluster in der Reihe von Clustern, einer Persönlichkeitskennung unter Verwendung eines Algorithmus zur natürlichen Sprachverarbeitung (Natural Language Processing - NLP); und Trainieren eines Modells unter Verwendung der Cluster von autonomen Fahrzeugobjekten und der zugewiesenen Persönlichkeitskennungen, wobei das Klassifizieren des Vektors in eine oder mehrere Persönlichkeiten Eingeben des Vektors in das Modell umfasst.
    11. System, umfassend: einen Prozessor; und ein Speichermedium zum materiellen Speichern einer Programmlogik zur Ausführung durch den Prozessor, wobei die gespeicherte Programmlogik Folgendes umfasst: von dem Prozessor ausgeführte Logik zum Empfangen von Daten von einem autonomen Fahrzeug; von dem Prozessor ausgeführte Logik zum Erzeugen eines Vektors, der das autonome Fahrzeug darstellt, basierend auf den Daten; von dem Prozessor ausgeführte Logik zum Klassifizieren des Vektors in eine oder mehrere Persönlichkeiten; von dem Prozessor ausgeführte Logik zum Empfangen einer Suchabfrage von einem Benutzer; von dem Prozessor ausgeführte Logik zum Identifizieren eines oder mehrerer autonomer Fahrzeuge, die auf die Suchabfrage reagieren, basierend auf Persönlichkeiten, die dem einen oder den mehreren autonomen Fahrzeugen zugeordnet sind, wobei das eine oder die mehreren autonomen Fahrzeugen das autonome Fahrzeug beinhalten; und von dem Prozessor ausgeführte Logik zum Übertragen des einen oder der mehreren autonomen Fahrzeuge an den Benutzer.
    12. System nach Anspruch 11, wobei die Daten Daten umfassen, die von einem oder mehreren an dem autonomen Fahrzeug installierten Sensoren aufgezeichnet werden.
    13. System nach Anspruch 12, wobei die Daten ferner Protokolldaten umfassen, die durch Überwachen eines Busses des autonomen Fahrzeugs aufgezeichnet werden.
    14. System nach Anspruch 11, wobei das Erzeugen eines Vektors Berechnen von Häufigkeiten und Mengen von Reparaturen und Fehlern, die in den Daten enthalten sind, umfasst.
    15. System nach Anspruch 11, wobei das Erzeugen eines Vektors Berechnen von Mengen von schnellen Beschleunigungen und Verzögerungen, die in den Daten enthalten sind, umfasst.
    16. System nach Anspruch 11, wobei das Erzeugen eines Vektors Identifizieren eines oder mehrerer Entscheidungspunkte, die in den Daten enthalten sind, umfasst.
    17. System nach Anspruch 11, wobei das Erzeugen eines Vektors Berechnen einer oder mehrerer von einer Routenführungseffizienz oder Kosteneffizienz basierend auf den in den Daten enthaltenen Routenführungsdaten umfasst.
    18. System nach Anspruch 11, wobei das Erzeugen eines Vektors Berechnen von Kosten und Gewinnen, die von dem autonomen Fahrzeug während nichtroutinemäßiger Aktivitäten erzeugt werden, basierend auf den Daten umfasst.
    19. System nach Anspruch 11, wobei das Klassifizieren des Vektors in eine oder mehrere Persönlichkeiten Analysieren jeder Komponente des autonomen Fahrzeugs und Zuweisen einer Persönlichkeit zu dem autonomen Fahrzeug umfasst, wenn Statistiken, die einer jeweiligen Komponente zugeordnet sind, einen vordefinierten Schwellenwert überschreiten.
    20. System nach Anspruch 1, wobei die gespeicherte Programmlogik ferner Folgendes umfasst: von dem Prozessor ausgeführte Logik zum Auswählen einer Reihe von autonomen Fahrzeugobjekten; von dem Prozessor ausgeführte Logik zum Clustern der Reihe von autonomen Fahrzeugobjekten in einen Satz von Clustern; von dem Prozessor ausgeführte Logik zum Zuweisen, zu jedem Cluster in der Reihe von Clustern, einer Persönlichkeitskennung unter Verwendung eines Algorithmus zur natürlichen Sprachverarbeitung (NLP); und von dem Prozessor ausgeführte Logik zum Trainieren eines Modells unter Verwendung der Cluster von autonomen Fahrzeugobjekten und der zugewiesenen Persönlichkeitskennungen, wobei das Klassifizieren des Vektors in eine oder mehrere Persönlichkeiten Eingeben des Vektors in das Modell umfasst.
    DE112018006555.3T 2017-12-21 2018-08-28 Programmgesteuertes identifizieren einer persönlichkeit eines autonomen fahrzeugs Pending DE112018006555T5 (de)

    Applications Claiming Priority (3)

    Application Number Priority Date Filing Date Title
    US15/851,730 US10877999B2 (en) 2017-12-21 2017-12-21 Programmatically identifying a personality of an autonomous vehicle
    US15/851,730 2017-12-21
    PCT/US2018/048390 WO2019125532A1 (en) 2017-12-21 2018-08-28 Programmatic ally identifying a personality of an autonomous vehicle

    Publications (1)

    Publication Number Publication Date
    DE112018006555T5 true DE112018006555T5 (de) 2020-09-03

    Family

    ID=66950374

    Family Applications (1)

    Application Number Title Priority Date Filing Date
    DE112018006555.3T Pending DE112018006555T5 (de) 2017-12-21 2018-08-28 Programmgesteuertes identifizieren einer persönlichkeit eines autonomen fahrzeugs

    Country Status (4)

    Country Link
    US (2) US10877999B2 (de)
    CN (1) CN111511622B (de)
    DE (1) DE112018006555T5 (de)
    WO (1) WO2019125532A1 (de)

    Families Citing this family (10)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US10877999B2 (en) 2017-12-21 2020-12-29 Micron Technology, Inc. Programmatically identifying a personality of an autonomous vehicle
    US11919531B2 (en) * 2018-01-31 2024-03-05 Direct Current Capital LLC Method for customizing motion characteristics of an autonomous vehicle for a user
    US10894545B2 (en) 2018-03-14 2021-01-19 Micron Technology, Inc. Configuration of a vehicle based on collected user data
    US11148658B2 (en) 2018-03-21 2021-10-19 Micron Technology, Inc. Personalization of a vehicle based on user settings
    US11087144B2 (en) * 2018-10-10 2021-08-10 Harman International Industries, Incorporated System and method for determining vehicle data set familiarity
    US11086322B2 (en) * 2019-03-19 2021-08-10 Gm Cruise Holdings Llc Identifying a route for an autonomous vehicle between an origin and destination location
    US11380094B2 (en) 2019-12-12 2022-07-05 At&T Intellectual Property I, L.P. Systems and methods for applied machine cognition
    CN111198884B (zh) * 2019-12-27 2023-06-06 福建威盾科技集团有限公司 一种车辆初次入城信息处理方法及信息处理系统
    US11776406B2 (en) * 2020-03-26 2023-10-03 Gm Cruise Holdings Llc System and method for detecting severe road events
    CN111913697B (zh) * 2020-08-13 2023-09-22 重庆同汇勘测规划有限公司 一种基于ArcGIS批量筛选点之记信息的方法

    Family Cites Families (32)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US7890581B2 (en) 1996-12-16 2011-02-15 Ip Holdings, Inc. Matching network system for mobile devices
    KR100681919B1 (ko) 2005-10-17 2007-02-12 에스케이 텔레콤주식회사 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치
    US20080195435A1 (en) * 2007-02-14 2008-08-14 Ian Bentley Lifestyle-based vehicle selection system and method
    CN102947676B (zh) * 2010-04-23 2016-06-01 通腾科技股份有限公司 导航装置及在其上实行的方法
    US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
    US9493130B2 (en) 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
    US9208215B2 (en) * 2012-12-27 2015-12-08 Lookout, Inc. User classification based on data gathered from a computing device
    US10803512B2 (en) * 2013-03-15 2020-10-13 Commerce Signals, Inc. Graphical user interface for object discovery and mapping in open systems
    US20140310277A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Suspending user profile modification based on user context
    US9672497B1 (en) * 2013-11-04 2017-06-06 Snap-On Incorporated Methods and systems for using natural language processing and machine-learning to produce vehicle-service content
    US10185997B1 (en) * 2014-05-20 2019-01-22 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
    US20150370272A1 (en) 2014-06-23 2015-12-24 Google Inc. Intelligent configuration of a smart environment based on arrival time
    CA3229217A1 (en) 2014-07-10 2016-01-14 Volta Charging, Llc Systems and methods for providing targeted advertisements to a charging station for electric vehicles
    US9740841B2 (en) 2014-09-08 2017-08-22 Tessera Advanced Technologies, Inc. Using biometric user-specific attributes
    WO2017062151A1 (en) 2015-10-06 2017-04-13 Northrop Grumman Systems Corporation Autonomous vehicle control system
    US10397019B2 (en) * 2015-11-16 2019-08-27 Polysync Technologies, Inc. Autonomous vehicle platform and safety architecture
    US10021354B2 (en) 2016-02-17 2018-07-10 Siemens Industry, Inc. Electric vehicle charging station with integrated camera
    US10035519B2 (en) 2016-03-15 2018-07-31 GM Global Technology Operations LLC System and method for autonomous vehicle driving behavior modification
    US10467824B2 (en) * 2016-04-26 2019-11-05 Walter Steven Rosenbaum Method for determining driving characteristics of a vehicle and vehicle analyzing system
    US20170316516A1 (en) 2016-04-29 2017-11-02 GM Global Technology Operations LLC Systems and methods for managing a social autonomous taxi service
    US20170351990A1 (en) 2016-06-01 2017-12-07 GM Global Technology Operations LLC Systems and methods for implementing relative tags in connection with use of autonomous vehicles
    US10311069B2 (en) * 2016-06-02 2019-06-04 International Business Machines Corporation Sentiment normalization using personality characteristics
    US10606276B2 (en) 2016-09-30 2020-03-31 Faraday & Future Inc. User data-based autonomous vehicle system
    US9817400B1 (en) 2016-12-14 2017-11-14 Uber Technologies, Inc. Vehicle servicing system
    US10246102B2 (en) 2017-03-15 2019-04-02 GM Global Technology Operations LLC Systems and methods for implementing user preferences for vehicles
    US10520947B2 (en) 2017-03-27 2019-12-31 Uatc, Llc Machine learning for event detection and classification in autonomous vehicles
    US10462645B2 (en) 2017-04-03 2019-10-29 Cisco Technology, Inc. Dynamic communication profiles
    CA3063736A1 (en) * 2017-05-15 2018-11-12 Wippy, LLC Systems, methods, and devices for dynamic used vehicle marketing, dealer matching, and extended sale period transactions platform
    US10395444B1 (en) * 2017-08-10 2019-08-27 Zoox, Inc. Vehicle self-diagnostics
    US10877999B2 (en) 2017-12-21 2020-12-29 Micron Technology, Inc. Programmatically identifying a personality of an autonomous vehicle
    US10894545B2 (en) 2018-03-14 2021-01-19 Micron Technology, Inc. Configuration of a vehicle based on collected user data
    US11148658B2 (en) 2018-03-21 2021-10-19 Micron Technology, Inc. Personalization of a vehicle based on user settings

    Also Published As

    Publication number Publication date
    US20190197177A1 (en) 2019-06-27
    WO2019125532A1 (en) 2019-06-27
    US20210117451A1 (en) 2021-04-22
    US10877999B2 (en) 2020-12-29
    CN111511622A (zh) 2020-08-07
    US11599563B2 (en) 2023-03-07
    CN111511622B (zh) 2023-09-12

    Similar Documents

    Publication Publication Date Title
    DE112018006555T5 (de) Programmgesteuertes identifizieren einer persönlichkeit eines autonomen fahrzeugs
    DE202019005891U1 (de) Fahrzeugtelematik von Fahrzeugunfällen
    DE102019107797B4 (de) FAHRZEUGPROGNOSEN UND ABHILFEMAßNAHMEN
    US20200134735A1 (en) Enhancement using analytics based on vehicle kinematic data
    KR101617349B1 (ko) 운전 습관 분석 진단 시스템 및 방법
    DE102016210453A1 (de) Fahrzeug, System in Kommunikation mit einem Kommunikationsmodul des Fahrzeugs, und System in Kommunikation mit einer Gruppe von Fahrzeugen
    DE102017108447A1 (de) Fahrzeugmodusplanung mit gelernten Benutzerpräferenzen
    DE112019004143T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
    DE112009000439T5 (de) Fahrzeuginformationsaufzeichnungsvorrichtung, Fahrzeuginformationskommunikationssystem und Fahrzeuginformationskommunikationsverfahren
    DE102016003969B4 (de) Verfahren zum Erfassen von Umgebungsdaten mittels mehrerer Kraftfahrzeuge
    DE102012201472A1 (de) Verfahren zur Bereitstellung von Parkinformationen zu freien Parkplätzen
    DE112019001842T5 (de) Fahrzeugklassifizierung basierend auf Telematikdaten
    DE102015103403A9 (de) Verfahren und Vorrichtung eines Benutzerempfehlungssystems für Fahrzeug-Apps
    DE102015103387A1 (de) Verfahren und Vorrichtung zum Verfolgen und Vorhersagen einer Verwendungstendenz von Fahrzeug-Apps
    DE102018118934A1 (de) Steuereinrichtung für digitale Beschilderung, Steuerverfahren für digitale Beschilderung und Aufzeichnungsmedium
    DE102018103683A1 (de) Verfahren und vorrichtung zur statistischen analyse von fahrzeugelementausfall
    WO2021121695A1 (de) Verfahren, vorrichtung und system zur detektion von anomalen betriebszuständen eines geräts
    DE102018106818A1 (de) Verfahren und vorrichtung für die fahrzeugsystemverschleissvorhersage
    JP2022533183A (ja) 車両の運転者の責任を計算するためのシステムおよび方法
    EP3877231A1 (de) Prädiktion eines voraussichtlichen fahrverhaltens
    DE102015214157A1 (de) Verfahren, System und von einem Computer lesbares Aufzeichnungsmedium für das Steuern eines abnormalen Zustands des Fahrzeugs
    DE102022111037A1 (de) Verfahren und systeme zur optimierung von fahrzeugereignisprozessen
    DE102013223217A1 (de) Verfahren zum Betreiben eines Servers
    CN115631002B (zh) 基于计算机视觉的车险智能定损方法及系统
    DE102021202177A1 (de) Verfahren zum bestimmen des betriebszustands von fahrzeugkomponenten

    Legal Events

    Date Code Title Description
    R012 Request for examination validly filed
    R082 Change of representative

    Representative=s name: TER MEER STEINMEISTER & PARTNER PATENTANWAELTE, DE

    R016 Response to examination communication