DE102021133888A1 - Verfahren und System zum Betrieb eines Kraftfahrzeugs, Computerprogrammprodukt für ein Kraftfahrzeug, Computerprogrammprodukt für eine Cloud sowie Kraftfahrzeug und Cloud für ein derartiges System - Google Patents

Verfahren und System zum Betrieb eines Kraftfahrzeugs, Computerprogrammprodukt für ein Kraftfahrzeug, Computerprogrammprodukt für eine Cloud sowie Kraftfahrzeug und Cloud für ein derartiges System Download PDF

Info

Publication number
DE102021133888A1
DE102021133888A1 DE102021133888.3A DE102021133888A DE102021133888A1 DE 102021133888 A1 DE102021133888 A1 DE 102021133888A1 DE 102021133888 A DE102021133888 A DE 102021133888A DE 102021133888 A1 DE102021133888 A1 DE 102021133888A1
Authority
DE
Germany
Prior art keywords
data
motor vehicle
operating
cloud
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021133888.3A
Other languages
English (en)
Inventor
Turgay Isik Aslandere
Nicole Leonarda Wilhelmina Eikelenberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Priority to DE102021133888.3A priority Critical patent/DE102021133888A1/de
Priority to CN202211617546.2A priority patent/CN116279514A/zh
Publication of DE102021133888A1 publication Critical patent/DE102021133888A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

1. Verfahren zum Betrieb eines Kraftfahrzeugs (4), mit den Schritten:während einer Trainingsphase (I) Trainieren einer künstlichen Intelligenz (8) mit Betriebsdaten (BD),während einer Vorhersagephase (II) Bereitstellen von einem ID-Datensatz (ID) durch Beaufschlagen der trainierten künstlichen Intelligenz (8) mit Betriebsdaten (BD) des Kraftfahrzeugs (4), undVerifizieren des bestimmten ID-Datensatzes (ID) durch Auswerten von personenbezogenen Daten (PD) des Fahrers (16).

Description

  • Die Erfindung betrifft ein Verfahren und ein System zum Betrieb eines Kraftfahrzeugs, ein Computerprogrammprodukt für ein Kraftfahrzeug, ein Computerprogrammprodukt für eine Cloud sowie ein Kraftfahrzeug und eine Cloud für ein derartiges System.
  • Steuergeräte (engl. ECU = electronic control unit oder ECM = electronic control module) sind elektronische Module, die in Kraftfahrzeugen in allen erdenklichen elektronischen Bereichen eingesetzt werden, z.B. um Steuerfunktionen von Fahrerassistenzsystemen (FAS; englisch Advanced Driver Assistance Systems, ADAS) zu steuern. Unter Fahrerassistenzsystemen werden dabei elektronische Zusatzeinrichtungen in Kraftfahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen verstanden. Hierbei stehen oft Sicherheitsaspekte, aber auch die Steigerung des Fahrkomforts sowie eine Verbesserung der Wirtschaftlichkeit die im Vordergrund. Derartige Fahrerassistenzsysteme greifen teilautonom oder autonom in Antrieb (z.B. Gas, Bremse), Steuerung (z.B. Park-Lenk-Assistent) oder Signalisierungseinrichtungen des Kraftfahrzeuges ein oder warnen durch geeignete Mensch-Maschine-Schnittstellen den Fahrer kurz vor oder während kritischer Situationen.
  • Herkömmliche Steuer- und/oder Regelstrategien basieren auf einem generischen Profil oder einem Fahrzyklus. Folglich sind die Ausgangssignale derartiger Steuergeräte und damit auch das Kraftfahrzeugverhalten für jeden Fahrer verschieden, zumal sich Fahrer z.B. hinsichtlich des Gebrauchs des Fahr- und/oder Bremspedals unterscheiden.
  • Bei einem Elektrofahrzeug mit einer Traktionsbatterie als Energiespeicher (EBV) kann so z.B. bei einem Fahrer sich eine Reichweite von 600 km ergeben, während sich für einen anderen Fahrer eine Reichweite von 400 km ergibt. Weitere, individuelle Faktoren können z.B. der Gebrauch einer Klimaanlage bzw. die Höhe der gewählten Soll-Temperatur sein.
  • Es sind verschiedene Ansätze bekannt, die auf einer händischen Eingabe über eine Mensch-Maschine-Schnittstelle (HMI) seitens des Fahrers basieren.
  • Aus der US 2015 / 0191178 A1 ist ein Kontroll-System für ein Kraftfahrzeug basierend auf einer ID indikativ für ein Profil des Fahrers bekannt, bei dem eine künstliche Intelligenz Anomalien im Fahrverhalten erfasst und der ID zuordnet. Dabei wählt das Kontroll-System einer ID aus einer Mehrzahl von IDs aus.
  • Weitere, derartige System sind z.B. aus der US 9,663,112 B2 , der WO 2014 / 102270 A1 , der US 11,037,378 B2 und der US 10,950,132 B2 bekannt.
  • Es besteht also Bedarf daran, Wege aufzuzeigen, wie derartige Steuergeräte individualisiert werden können.
  • Die Aufgabe der Erfindung wird gelöst durch ein Verfahren zum Betrieb eines Kraftfahrzeugs, mit den Schritten:
    • während einer Trainingsphase Trainieren einer künstlichen Intelligenz mit Trainingsdaten,
    • während einer Vorhersagephase Bereitstellen von einem ID-Datensatz durch Beaufschlagen der trainierten künstlichen Intelligenz mit Betriebsdaten des Kraftfahrzeugs, und
    • Verifizieren des bestimmten ID-Datensatzes durch Auswerten von personenbezogenen Daten des Fahrers.
  • Die künstliche Intelligenz kann aus Beispielen lernen und kann diese nach Beendigung der Lernphase verallgemeinern. Dazu bauen z.B. Algorithmen beim maschinellen Lernen ein statistisches Modell auf, das auf Trainingsdaten beruht. Das heißt, es werden nicht einfach Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in den Trainingsdaten erkannt. So kann die künstliche Intelligenz auch unbekannte Daten beurteilen (Lerntransfer).
  • Mit anderen Worten, es werden Prognosedaten einer trainierten künstlichen Intelligenz mit weiteren personenbezogenen Daten kombiniert bzw. fusioniert um einen ID-Datensatz zu bestimmen, der dem aktuellen Fahrer des Kraftfahrzeugs zugeordnet werden kann. So kann eine sichere Identifikation des Fahrers ermöglicht werden, was dann eine Individualisierung von einem Steuergerät des Kraftfahrzeugs erlaubt.
  • Gemäß einer Ausführungsform sind die personenbezogenen Daten des Fahrers Daten betreffend ein Stimmprofil, biometrische Daten und/oder Gerätedaten und/oder Nutzerdaten. Die biometrischen Daten können Daten zur Gesichtserkennung, Daten zur Gestenerkennung und/oder Fingerabdruckdaten sein, während die Gerätedaten und/oder Nutzerdaten Nutzerkennungen und /oder Passwörter sein können. So kann auf besonders einfache und zuverlässige Art und Weise durch Auswerten von personenbezogenen Daten die Verifizierung durchgeführt werden.
  • Gemäß einer weiteren Ausführungsform wird basierend auf dem verifizierten ID-Datensatz zumindest ein Parameter eines Ansteuerdatensatzes eines Steuergeräts des Kraftfahrzeugs angepasst. Somit erfolgt ein individueller, an den jeweiligen Fahrer angepasster Betrieb des jeweiligen Steuergeräts des Kraftfahrzeugs.
  • Gemäß einer weiteren Ausführungsform wird die Trainingsphase in einer Cloud durchgeführt. Somit werden besonders rechenintensive Prozesse aus dem Kraftfahrzeug ausgelagert. Entsprechend werden die Rechnerressourcen des Kraftfahrzeugs geschont und damit auch der Energieverbrauch des Kraftfahrzeugs reduziert.
  • Ferner gehören zur Erfindung ein System zum Betrieb eines Kraftfahrzeugs, ein erstes Computerprogrammprodukt für ein Kraftfahrzeug, ein zweites Computerprogrammprodukt für eine Cloud sowie ein Kraftfahrzeug und eine Cloud für ein derartiges System.
  • Es wird nun die Erfindung anhand einer Zeichnung erläutert. Es zeigen:
    • 1 in schematischer Darstellung Komponenten eines Systems zum Betrieb eines Kraftfahrzeugs.
    • 2 in schematischer Darstellung verschiedene Betriebsphasen des in 1 gezeigten Systems.
    • 3 in schematischer Darstellung einen Verfahrensablauf zum Betrieb des in Figur gezeigten Systems 1
  • Es wird zunächst auf 1 Bezug genommen.
  • Dargestellt sind Komponenten eines Systems 2 zum Betrieb eines Kraftfahrzeugs 4.
  • Das Kraftfahrzeug 4 ist im vorliegenden Ausführungsbeispiel ein PKW, wie z.B. ein Elektrofahrzeug mit einer Traktionsbatterie als Energiespeicher (EBV), und wird von einem Fahrer 16 gesteuert.
  • Bei den in 1 dargestellten Komponenten handelt es sich um ein Steuergerät 6 (ECU), eine künstliche Intelligenz 8, einen Fahrzeug-Bus 10, eine Cloud 12 und eine Mensch-Maschine-Schnittstelle (HMI) 14.
  • Das System 2 sowie das Steuergerät 6, die künstliche Intelligenz 8, der Fahrzeug-Bus 10, die Cloud 12 und die Mensch-Maschine-Schnittstelle 14 können für die nachfolgend beschriebenen Aufgaben und/oder Funktionen Hardware- und/oder Software-Komponenten aufweisen.
  • Das Steuergerät 6 ist im vorliegenden Ausführungsbeispiel ein eingebettetes System, das im Kraftfahrzeug 4 angeordnet ist. Das Steuergerät 6 kann z.B. ein Motorsteuergerät oder ein Fahrassistenzsystem des Kraftfahrzeugs 4 sein. Es steuert eines oder mehrere elektrische Systeme oder Teilsysteme in dem Kraftfahrzeug 4.
  • Im Gegensatz zu herkömmlichen Steuergeräten ist das Steuergerät 6 im vorliegenden Ausführungsbeispiel dazu ausgebildet basierend auf einem verifizierten ID-Datensatz ID zumindest einen Parameter P eines Ansteuerdatensatzes AS des Steuergeräts 6 des Kraftfahrzeugs 4 anzupassen.
  • Ferner ist das Steuergerät 6 im vorliegenden Ausführungsbeispiel dazu ausgebildet Daten, wie den ID-Datensatz ID und auch andere Daten, wie z.B. Betriebsdaten BD, in die Cloud 12 drahtlos zu übertragen und/oder drahtlos einzulesen. Mit anderen Worten, das Steuergerät 6 und die Cloud 12 sind zum bidirektionalen drahtlosen Datenaustausch ausgebildet.
  • Die künstliche Intelligenz 8 ist im vorliegenden Ausführungsbeispiel ebenfalls ein eingebettetes System, das ebenfalls im Kraftfahrzeug 4 angeordnet ist. Die künstliche Intelligenz 8 verfügt über die notwendige Rechenleistung und Hardware-Elemente, z.B. CPU oder GPU, RAM, Speicher, CAN, mobile Kommunikation (LTE), und/oder Ethernet-Schnittstelle, um maschinelle Lernalgorithmen in Echtzeit anzuwenden.
  • Ferner ist die künstliche Intelligenz 8 im vorliegenden Ausführungsbeispiel mit der Cloud 12 für einen bidirektionalen und drahtlosen Datenaustausch verbunden. Weitere Details der künstlichen Intelligenz 8 werden später unter Bezugnahme auf 2 erläutert.
  • Der Fahrzeug-Bus 10, im vorliegenden Ausführungsbeispiel ein CAN-Bus, weist eine oder mehrere Schnittstellen auf, die dazu ausgebildet sind, die gesamten Betriebsdaten BD, wie z.B. Eingangs-/Ausgangsdaten zu übertragen. Die Betriebsdaten BD können z.B. GPS-Koordinaten, Lenkradwinkel und/oder Fahr- und/oder Bremspedalstellungen umfassen.
  • Die Cloud 12 ist z.B. ein Rechenzentrum oder ein Netzwerk aus mehreren Rechenzentren, das z.B. über ein Internetprotokoll bidirektional datenübertragend mit einer Mehrzahl an Kraftfahrzeugen 4 und/oder mit einer Mehrzahl von Fahrern 18 verbunden ist.
  • Die Mensch-Maschine-Schnittstelle 14 stellt eine Schnittstelle zwischen dem Kraftfahrzeug 4 und physischen Eingabehardware-Komponenten, wie z.B. Tastaturen, Touchpads, Spracherkennungssystemen, Gesichts- und/oder Gestenerkennungssystemen oder Fernbedienungen sowie Ausgabehardware-Komponenten, wie z.B. Displays und/oder Lautsprechern, bereit.
  • Die Mensch-Maschine-Schnittstelle 14 ist im vorliegenden Ausführungsbeispiel bidirektional datenübertragend mit dem Fahrzeug-Bus 10 verbunden, so dass der Fahrer 16 bestimmte Fahrzeugfunktionen über die Mensch-Maschine-Schnittstelle 14 steuern kann, z.B. die Musiklautstärke, die Soll-Innentemperatur, Navigationsfunktionen, die Fahrmodi usw. Zusätzlich zu den Funktionen einer Mensch-Maschine-Schnittstelle z.B. eines Infotainmentsystems des Kraftfahrzeugs 4 stellt die Mensch-Maschine-Schnittstelle 14 gemäß dem vorliegenden Ausführungsbeispiel eine Funktion zur Verifizierung des ID-Datensatzes ID anhand von personenbezogenen Daten PD bereit.
  • Unter Verifizierung des ID-Datensatzes ID wird dabei die Bestätigung der Zuordnung des von der künstlichen Intelligenz 8 bestimmten ID-Datensatz ID zu dem aktuellen Fahrer 16 verstanden.
  • Die personenbezogenen Daten PD können z.B. sein:
    • Fingerabdruckdaten, die mit Hilfe eines Fingerabdruckscanners im Kraftfahrzeug 4, der mit der Mensch-Maschine-Schnittstelle 14 datenübertragend verbunden ist, erfasst und einer Fingerabdruckerkennungssoftware ausgewertet werden.
    • Stimmprofile bzw. Daten von Stimmprofilen, die mit einem Mikrofon der Mensch-Maschine-Schnittstelle 14 erfasst und mit einer Spracherkennungssoftware ausgewertet werden.
    • Daten zur Gestenerkennung, die z.B. mit Schwarz-Weiß- oder Farbkameras, Infrarotkameras, Stereokameras und/oder LIDAR-Sensoren erfasst und mit einer Gestenerkennungssoftware ausgewertet werden.
    • Daten zur Gesichtserkennung, die z.B. mit Schwarz-Weiß- oder Farbkameras, Infrarotkameras, Stereokameras und/oder LIDAR-Sensoren erfasst und mit einer Gesichtserkennungssoftware ausgewertet werden.
    • Gerätedaten und/oder Nutzerdaten, insbesondere für Mobilgeräte, wie z.B. Smartwatches, Smartphone, Tabletcomputer, die über eine Schnittstelle, wie z.B. Bluetooth, mit der Mensch-Maschine-Schnittstelle 14 datenübertragen verbunden sind.
    • Nutzerkennungen und /oder Passwörter, die vom Fahrer 16 mittels der Mensch-Maschine-Schnittstelle 14 eingegeben werden.
  • Der Fahrer 16 ist eine Person, deren Identität von der künstlichen Intelligenz 8 bestimmt wird. Sobald ein neuer Fahrer 16 von der künstlichen Intelligenz 8 erfasst wird, registriert der Fahrer 16 seine ID über die Mensch-Maschine-Schnittstelle 14, um die o.g. Bestätigungsmethoden nutzen zu können.
  • Es wird nun zusätzlich auf 2 Bezug genommen um den Betrieb des in Figur gezeigten Systems 2 zu erläutern.
  • Das System 2 wird zuerst in einer Trainingsphase I und dann in einer Vorhersagephase II betrieben.
  • Zu Beginn werden die Trainingsphase I und die Vorhersagephase II sequentiell ausgeführt, d.h. nach der Trainingsphase I beginnt die Vorhersagephase II. Im weiteren Verlauf kann jedoch die Trainingsphase I kontinuierlich weitergeführt werden, um die künstliche Intelligenz 8 mit den neuesten Daten zu aktualisieren. Die Trainingsphase I findet in der Cloud 12 und die Vorhersagephase II findet in der künstlichen Intelligenz 8 statt. Dabei können die Trainingsphase I und die Vorhersagephase II zeitgleich bzw. simultan ausgeführt werden.
  • Zur künstlichen Intelligenz 8 gehören im vorliegenden Ausführungsbeispiel neben einem Speicher 18 zur Zwischenspeicherung der Betriebsdaten BD ein überwachter Lern-Algorithmus 20, wie z.B. Fehlerrückführung (backpropagation of error) und ein Autoencoder-Algorithmus 22. Diese Algorithmen werden während der Trainingsphase I in der Cloud 12 trainiert.
  • Unter einem Autoencoder wird dabei ein künstliches neuronales Netz verstanden, das eine komprimierte Repräsentation (Encoding) für einen Datensatz lernt und somit auch wesentliche Merkmale extrahiert. Künstliche neuronale Netze (KNN) weisen eine Mehrzahl künstlicher Neuronen auf, die im Falle tiefer neuronaler Netze in zahlreichen Zwischenschichten (hidden layers) zwischen einer Eingabeschicht und einer Ausgabeschicht angeordnet sind.
  • Der Autoencoder-Algorithmus 22 wird in erster Linie zur Erkennung von Ereignissen und/oder Anomalien in den Betriebsdaten BD eingesetzt. Sobald ein Ereignis und/oder eine Anomalie erfasst werden, wird ein ID-Datensatz ID entsprechend der Datenverteilung in den Betriebsdaten BD erstellt. Dann wird der überwachte Algorithmus 20 verwendet, um gegebenenfalls den ID-Datensatz ID, der dem aktuellen Fahrer 16 zugeordnet ist, aus einer Mehrzahl von ID-Datensätzen für jeden der Fahrer 16 auszuwählen.
  • Autoencoder können unüberwachte Lernmethoden verwenden, die im Allgemeinen dazu verwendet werden, unregelmäßige Ereignisse und Anomalien zu erfassen. Autoencoder sind dafür bekannt, dass sie ungewöhnliche Ereignisse sehr gut erfassen und daher in der Lage sind, solche Ereignisse zu identifizieren. Es sind viele Varianten von Autoencoder-Algorithmen bekannt. Zu den Autoencoder-Algorithmen 22 gehören bspw. Feed-forward-Autoencoder für neuronale Netze, Sequenz-auf-Sequenz-Autoencoder, Adversial-Autoencoder, Convolutional-Autoencoder und Variational-Autoencoder. Jeder wird im vorliegenden Ausführungsbeispiel ein als Sequenz-auf-Sequenz-Autoencoder ausgebildeter Autoencoder-Algorithmus 22 verwendet. Unter einer Sequenz wird dabei ein Abschnitt eines Datenstroms, bestehend aus einer Mehrzahl von zeitlich aufeinander folgenden Daten, verstanden.
  • Verschiedene überwachte Lernalgorithmen können Vorwärts-Netze (feedforward neuronal networks), rekurrente neuronale Netze (RNN - recurrent neural networks), z.B. lange Kurzzeitgedächnisse (LSTM - long short-term memory) und rekurrente Gattereinheiten (GRU - gated recurrent units) und faltende neuronales Netze (CNN - convolutional neural networks) sein. In der vorliegenden Ausführungsform werden rekurrente neuronale Netze in Kombination mit LSTM-Algorithmen verwendet.
  • Als rekurrente neuronale Netze werden neuronale Netze bezeichnet, die sich im Gegensatz zu Feedforward-Netzen durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht auszeichnen. So sind Neuronen der gleichen Schicht oder unterschiedlicher Schichten rückgekoppelt. Durch diese Rückkopplungen lassen sich zeitlich codierte Informationen aus Daten gewinnen. Anstelle von rekurrenten neuronalen Netzen können auch rekurrente Gattereinheiten oder faltende neuronale Netze verwendet werden.
  • Ein LSTM-Algorithmus verwendet Speicherzellen, um Gewichtungsinformationen an die benachbarten Zellen eines künstlichen neuronalen Netzes zu übertragen, die in einem Zeitschritt Informationen verarbeiten. Jede Speicherzelle ist eigentlich ein neuronales Netz, das mindestens eine Schicht mit versteckten Ebenen enthalten kann. Diese Speicherzellen enthalten zusätzlich zu einer versteckten Zustandsvariablen eine Zellzustandsvariable, was einem LSTM-Algorithmus im Vergleich zu anderen rekurrenten neuronalen Netzen robuster macht. Der LSTM-Algorithmus kann auch bidirektional ausgebildet sein, sodass ein Backpropagation-Algorithmus in Vorwärts- und Rückwärtsrichtung während der Trainingsphase I für das Training durchgeführt wird.
  • Es wird nun zusätzlich auf 3 Bezug genommen, um weitere Details des Verfahrensablaufs zu erläutern.
  • In einem ersten Schritt S100 werden erfasste Betriebsdaten BD in dem Speicher 18 der Cloud 12 zwischengespeichert.
  • In einem weiteren Schritt S200 wird der Autoencoder-Algorithmus 22, im vorligenden Ausführungsbeispiel ein Sequenz-auf-Sequenz-Autoencoder, während der Trainingsphase I mit den im Speicher 18 zwischengespeicherten Betriebsdaten BD trainiert. Im vorliegenden Ausführungsbeispiel werden ferner während der Trainingsphase I weitere Betriebsdaten BD in dem Speicher 18 der Cloud 12 übertragen um so die Betriebsdaten BD zu aktualisieren. Der Autoencoder-Algorithmus 22 wird auf ein Erfassen von Ereignissen und/oder Anomalien trainiert.
  • In einem weiteren Schritt S300 wird der trainierte Autoencoder-Algorithmus 22 auf ein Erfassen von Ereignissen und/oder Anomalien in den Betriebsdaten BD ausgeführt. Es wird dann in einem weiteren Schritt S320 geprüft, ob ein Ereignis und/oder eine Anomalien in den Betriebsdaten BD vorliegen. Wenn ein Ereignis und/oder eine Anomalien in den Betriebsdaten BD vorliegen wird das Verfahren mit einem weiteren Schritt S400 fortgesetzt. Wenn kein Ereignis und/oder keine Anomalien in den Betriebsdaten BD vorliegen wird in einem weiteren Schritt S340 geprüft, ob bereits ein den Betriebsdaten BD zugeordneter ID-Datensatz ID vorliegt. Wenn kein den Betriebsdaten BD zugeordneter ID-Datensatz ID vorliegt wird das Verfahren mit dem weiteren Schritt S400 fortgesetzt. Wenn hingegen ein den Betriebsdaten BD zugeordneter ID-Datensatz ID vorliegt wird das Verfahren mit dem weiteren Schritt S800 fortgesetzt.
  • In einem weiteren Schritt S400 wird ein neuer ID-Datensatz ID für einen neuen Fahrer 16 erzeugt.
  • In einem weiteren Schritt S500 wird der Lern-Algorithmus 20 der künstlichen Intelligenz 8 , im vorliegenden Ausführungsbeispiel ein rekurrentes neuronales Netz in Kombination mit LSTM-Algorithmen, mit dem weiteren ID-Datensatz ID während der Trainingsphase I trainiert.
  • In einem weiteren Schritt S600 bestimmt der Lern-Algorithmus 20 der künstlichen Intelligenz 8 während der Vorhersagephase II den ID-Datensatz ID des aktuellen Fahrers 16.
  • In einem weiteren Schritt S700 wird der bestimmte ID-Datensatz ID zu der Mensch-Maschine-Schnittstelle 14 übertragen.
  • In einem weiteren Schritt S800 sendet die Mensch-Maschine-Schnittstelle 14 eine Benachrichtigung, um die Bestätigung des Fahrers 16 über die Mensch-Maschine-Schnittstelle 14 einzuholen. Anschließend wird der bestätigte ID-Datensatz zusammen mit den dazu gehörenden Betriebsdaten BD in die Cloud 14 übertragen, wo sie zum Trainieren der künstlichen Intelligenz 8 verwendet werden.
  • Ferner wird in einem weiteren Schritt S820 geprüft, ob ein verifizierter ID-Datensatz ID vorliegt oder nicht.
  • In einem weiteren Schritt S900 wird der zumindest eine Parameter P des Ansteuerdatensatzes AS des Steuergeräts 6 des Kraftfahrzeugs 4 nicht angepasst, wenn kein verifizierter ID-Datensatz ID vorliegt.
  • Hingegen wird in einem weiteren Schritt S1000 der zumindest eine Parameter P des Ansteuerdatensatzes AS des Steuergeräts 6 des Kraftfahrzeugs 4 angepasst, wenn ein verifizierter ID-Datensatz ID vorliegt.
  • In einem weiteren Schritt S1100 wird ein nicht-verifizierter ID-Datensatz ID gelöscht.
  • Abweichend vom vorliegenden Ausführungsbeispiel kann die Reihenfolge der Schritte auch eine andere sein. Ferner können mehrere Schritte auch zeitgleich bzw. simultan ausgeführt werden. Des Weiteren können auch abweichend vom vorliegenden Ausführungsbeispiel einzelne Schritte übersprungen oder ausgelassen werden.
  • Es werden also Prognosedaten einer trainierten künstlichen Intelligenz 8 mit weiteren personenbezogenen Daten PD kombiniert bzw. fusioniert um einen ID-Datensatz ID zu bestimmen, der dem aktuellen Fahrer 16 des Kraftfahrzeugs 2 zugeordnet werden kann. So kann eine sichere Identifikation des Fahrers 16 ermöglicht werden, was dann eine Individualisierung von dem Steuergerät 6 des Kraftfahrzeugs 4 erlaubt.
  • Bezugszeichenliste
  • 2
    System
    4
    Kraftfahrzeug
    6
    Steuergerät
    8
    künstliche Intelligenz
    10
    Fahrzeug-Bus
    12
    Cloud
    14
    Mensch-Maschine-Schnittstelle
    16
    Fahrer
    18
    Speicher
    20
    Lern-Algorithmus
    22
    Autoencoder-Algorithmus
    AS
    Ansteuerdatensatz
    BD
    Betriebsdaten
    ID
    ID-Datensatz
    P
    Parameter
    PD
    personenbezogene Daten
    I
    Trainingsphase
    II
    Vorhersagephase
    S100
    Schritt
    S200
    Schritt
    S300
    Schritt
    S320
    Schritt
    S340
    Schritt
    S400
    Schritt
    S500
    Schritt
    S600
    Schritt
    S700
    Schritt
    S800
    Schritt
    S820
    Schritt
    S900
    Schritt
    S1000
    Schritt
    S1100
    Schritt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 9663112 B2 [0007]
    • WO 2014/102270 A1 [0007]
    • US 11037378 B2 [0007]
    • US 10950132 B2 [0007]

Claims (12)

  1. Verfahren zum Betrieb eines Kraftfahrzeugs (4), mit den Schritten: während einer Trainingsphase (I) Trainieren einer künstlichen Intelligenz (8) mit Betriebsdaten (BD), während einer Vorhersagephase (II) Bereitstellen von einem ID-Datensatz (ID) durch Beaufschlagen der trainierten künstlichen Intelligenz (8) mit Betriebsdaten (BD) des Kraftfahrzeugs (4), und Verifizieren des bestimmten ID-Datensatzes (ID) durch Auswerten von personenbezogenen Daten (PD) des Fahrers (16).
  2. Verfahren nach Anspruch 1, wobei die personenbezogenen Daten (PD) des Fahrers (16) Daten betreffend ein Stimmprofil, biometrische Daten, insbesondere Daten zur Gesichtserkennung, Daten zur Gestenerkennung und/oder Fingerabdruckdaten, Gerätedaten und/oder Nutzerdaten, insbesondere Nutzerkennungen und /oder Passwörter sind.
  3. Verfahren nach Anspruch 1 oder 2, wobei basierend auf dem verifizierten ID-Datensatz (ID) zumindest ein Parameter (P) eines Ansteuerdatensatz (AS) eines Steuergeräts (6) des Kraftfahrzeugs (4) angepasst wird.
  4. Verfahren nach Anspruch 1, 2 oder 3, wobei die Trainingsphase (I) in einer Cloud (12) durchgeführt wird.
  5. Computerprogrammprodukt für ein Kraftfahrzeug (2), ausgebildet zumindest zum Ausführen der Vorhersagephase (II) und zum Verifizieren des bestimmten ID-Datensatzes (ID) nach Anspruch 1.
  6. Computerprogrammprodukt für eine Cloud (12), zumindest ausgebildet zum Ausführen der Trainingsphase (I) nach Anspruch 4.
  7. System (2) zum Betrieb eines Kraftfahrzeugs (4), wobei das System (2) dazu ausgebildet ist während einer Trainingsphase (I) eine künstliche Intelligenz (8) mit Betriebsdaten (BD) zu trainieren, während einer Vorhersagephase (II) einen ID-Datensatz (ID) durch Beaufschlagen der trainierten künstlichen Intelligenz (8) mit Betriebsdaten (BD) des Kraftfahrzeugs (4) bereitzustellen und den bestimmten ID-Datensatz (ID) durch Auswerten von personenbezogenen Daten (PD) des Fahrers (16) zu verifizieren.
  8. System (2) nach Anspruch 2, wobei die personenbezogenen Daten (PD) des Fahrers (16) Daten betreffend ein Stimmprofil, biometrische Daten, insbesondere Daten zur Gesichtserkennung, Daten zur Gestenerkennung und/oder Fingerabdruckdaten, Gerätedaten und/oder Nutzerdaten, insbesondere Nutzerkennungen und /oder Passwörter sind.
  9. System (2) nach Anspruch 7 oder 8, wobei das System (2) dazu ausgebildet ist basierend auf dem verifizierten ID-Datensatz (ID) zumindest ein Parameter (P) eines Ansteuerdatensatz (AS) eines Steuergeräts (6) des Kraftfahrzeugs (4) anzupassen.
  10. System (2) nach Anspruch 7,8 oder 9, wobei das System (2) eine Cloud (12) aufweist, in der die Trainingsphase (I) durchgeführt wird.
  11. Kraftfahrzeug (4) für ein System (2) nach einem der Ansprüche 7 bis 9.
  12. Cloud (12) für ein System (2) nach einem der Ansprüche 7 bis 9.
DE102021133888.3A 2021-12-20 2021-12-20 Verfahren und System zum Betrieb eines Kraftfahrzeugs, Computerprogrammprodukt für ein Kraftfahrzeug, Computerprogrammprodukt für eine Cloud sowie Kraftfahrzeug und Cloud für ein derartiges System Pending DE102021133888A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021133888.3A DE102021133888A1 (de) 2021-12-20 2021-12-20 Verfahren und System zum Betrieb eines Kraftfahrzeugs, Computerprogrammprodukt für ein Kraftfahrzeug, Computerprogrammprodukt für eine Cloud sowie Kraftfahrzeug und Cloud für ein derartiges System
CN202211617546.2A CN116279514A (zh) 2021-12-20 2022-12-15 操作机动车辆的方法和系统、计算机程序产品及机动车辆和云

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021133888.3A DE102021133888A1 (de) 2021-12-20 2021-12-20 Verfahren und System zum Betrieb eines Kraftfahrzeugs, Computerprogrammprodukt für ein Kraftfahrzeug, Computerprogrammprodukt für eine Cloud sowie Kraftfahrzeug und Cloud für ein derartiges System

Publications (1)

Publication Number Publication Date
DE102021133888A1 true DE102021133888A1 (de) 2023-06-22

Family

ID=86606251

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021133888.3A Pending DE102021133888A1 (de) 2021-12-20 2021-12-20 Verfahren und System zum Betrieb eines Kraftfahrzeugs, Computerprogrammprodukt für ein Kraftfahrzeug, Computerprogrammprodukt für eine Cloud sowie Kraftfahrzeug und Cloud für ein derartiges System

Country Status (2)

Country Link
CN (1) CN116279514A (de)
DE (1) DE102021133888A1 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013101052A1 (en) 2011-12-29 2013-07-04 Intel Corporation Systems, methods, and apparatus for learning the identity of an occupant of a vehicle
WO2014102270A1 (fr) 2012-12-27 2014-07-03 In-Systems Procédé d'optimisation d'une cartographie de commande moteur d'un véhicule
US9663112B2 (en) 2014-10-09 2017-05-30 Ford Global Technologies, Llc Adaptive driver identification fusion
US20190118773A1 (en) 2017-10-25 2019-04-25 Hyundai Motor Company User authentication system, user authentication method and server
DE102018006747A1 (de) 2018-08-24 2019-08-29 Daimler Ag Verfahren zur Auswertung von Daten aus einem Fahrzeug
US10950132B2 (en) 2016-12-22 2021-03-16 Xevo Inc. Method and system for providing artificial intelligence analytic (AIA) services using operator fingerprints and cloud data
US11037378B2 (en) 2019-04-18 2021-06-15 IGEN Networks Corp. Method and system for creating driver telematic signatures
DE102021104738A1 (de) 2021-02-26 2022-09-01 Ford Global Technologies, Llc Verfahren zum Betrieb eines Kraftfahrzeugs

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013101052A1 (en) 2011-12-29 2013-07-04 Intel Corporation Systems, methods, and apparatus for learning the identity of an occupant of a vehicle
WO2014102270A1 (fr) 2012-12-27 2014-07-03 In-Systems Procédé d'optimisation d'une cartographie de commande moteur d'un véhicule
US9663112B2 (en) 2014-10-09 2017-05-30 Ford Global Technologies, Llc Adaptive driver identification fusion
US10950132B2 (en) 2016-12-22 2021-03-16 Xevo Inc. Method and system for providing artificial intelligence analytic (AIA) services using operator fingerprints and cloud data
US20190118773A1 (en) 2017-10-25 2019-04-25 Hyundai Motor Company User authentication system, user authentication method and server
DE102018006747A1 (de) 2018-08-24 2019-08-29 Daimler Ag Verfahren zur Auswertung von Daten aus einem Fahrzeug
US11037378B2 (en) 2019-04-18 2021-06-15 IGEN Networks Corp. Method and system for creating driver telematic signatures
DE102021104738A1 (de) 2021-02-26 2022-09-01 Ford Global Technologies, Llc Verfahren zum Betrieb eines Kraftfahrzeugs

Also Published As

Publication number Publication date
CN116279514A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
DE102019119171A1 (de) Spracherkennung für fahrzeugsprachbefehle
DE102016212195A1 (de) Verfahren zum Durchführen eines automatischen Eingriffs in die Fahrzeugführung eines Fahrzeugs
WO2020074195A1 (de) Verfahren zur bewertung einer verkehrssituation
EP2734998B1 (de) Assistenzsystem
DE102017217444A1 (de) Verfahren und System zum Aktualisieren eines Steuerungsmodells für eine automatische Steuerung zumindest einer mobilen Einheit
DE102023103232A1 (de) Netz für biometrische aufgaben
DE102019216363A1 (de) Verfahren zum Bereitstellen eines Signals zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs
DE102021125171A1 (de) Biometrisches drahtloses fahrzeugzugangssystem
DE102021116309A1 (de) Assistenz für beeinträchtigte fahrer
DE102019214423A1 (de) Verfahren zum Fernsteuern eines Kraftfahrzeugs
DE102006053328B4 (de) Verfahren zum Authentifizieren eines Fahrers eines Fahrzeugs und zugehörige Vorrichtung
DE102021133888A1 (de) Verfahren und System zum Betrieb eines Kraftfahrzeugs, Computerprogrammprodukt für ein Kraftfahrzeug, Computerprogrammprodukt für eine Cloud sowie Kraftfahrzeug und Cloud für ein derartiges System
DE102022205084B3 (de) Verfahren, Computerprogramm und Vorrichtung zur Umfeldwahrnehmung im Fahrzeug sowie entsprechendes Fahrzeug
DE102019119052A1 (de) Verfahren und Vorrichtung zur Freigabe von Fahrzeugfunktionen eines Fahrzeugs, Fahrzeug und System
DE102019214484A1 (de) Verfahren zum sicheren Ermitteln von Infrastrukturdaten
DE102021104738A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102018210368B4 (de) Fahrerassistenzsystem, Fahrzeug, Verfahren zum Betreiben des Fahrerassistenzsystems, Computerprogramm und computerlesbares Speichermedium
DE102021122094A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102021003597A1 (de) Verfahren zur Beeinflussung eines Verhaltens mindestens eines lnsassen in einem Fahrzeug
DE102019204849A1 (de) Erkennung eines durch Personen ausgehenden Gefahrenpotentials
DE102020122853A1 (de) Verfahren und Vorrichtung zur Vorhersage des Abbruchs einer automatisierten Fahrfunktion
DE102020129451A1 (de) Verfahren zur Prädiktion von Fahreingriffen, Verfahren zum Training eines Algorithmus und Kraftfahrzeug
DE102017201222A1 (de) Verfahren und System zum maschinellen Lernen
DE102021130768B4 (de) Verfahren zum Steigern einer Aufmerksamkeit eines Benutzers eines Kraftfahrzeugs, Assistenzeinrichtung, Kraftfahrzeug
DE102020213198A1 (de) System und Verfahren zum Durchführen eines automatisierten Fahrmanövers mit einem ausgewählten Fahrstil, Fahrzeug, Computerprogrammprodukt und computerlesbares Speichermedium

Legal Events

Date Code Title Description
R163 Identified publications notified