-
Die Erfindung betrifft ein Verfahren und ein System zum Betrieb eines Kraftfahrzeugs, ein Computerprogrammprodukt für ein Kraftfahrzeug, ein Computerprogrammprodukt für eine Cloud sowie ein Kraftfahrzeug und eine Cloud für ein derartiges System.
-
Steuergeräte (engl. ECU = electronic control unit oder ECM = electronic control module) sind elektronische Module, die in Kraftfahrzeugen in allen erdenklichen elektronischen Bereichen eingesetzt werden, z.B. um Steuerfunktionen von Fahrerassistenzsystemen (FAS; englisch Advanced Driver Assistance Systems, ADAS) zu steuern. Unter Fahrerassistenzsystemen werden dabei elektronische Zusatzeinrichtungen in Kraftfahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen verstanden. Hierbei stehen oft Sicherheitsaspekte, aber auch die Steigerung des Fahrkomforts sowie eine Verbesserung der Wirtschaftlichkeit die im Vordergrund. Derartige Fahrerassistenzsysteme greifen teilautonom oder autonom in Antrieb (z.B. Gas, Bremse), Steuerung (z.B. Park-Lenk-Assistent) oder Signalisierungseinrichtungen des Kraftfahrzeuges ein oder warnen durch geeignete Mensch-Maschine-Schnittstellen den Fahrer kurz vor oder während kritischer Situationen.
-
Herkömmliche Steuer- und/oder Regelstrategien basieren auf einem generischen Profil oder einem Fahrzyklus. Folglich sind die Ausgangssignale derartiger Steuergeräte und damit auch das Kraftfahrzeugverhalten für jeden Fahrer verschieden, zumal sich Fahrer z.B. hinsichtlich des Gebrauchs des Fahr- und/oder Bremspedals unterscheiden.
-
Bei einem Elektrofahrzeug mit einer Traktionsbatterie als Energiespeicher (EBV) kann so z.B. bei einem Fahrer sich eine Reichweite von 600 km ergeben, während sich für einen anderen Fahrer eine Reichweite von 400 km ergibt. Weitere, individuelle Faktoren können z.B. der Gebrauch einer Klimaanlage bzw. die Höhe der gewählten Soll-Temperatur sein.
-
Es sind verschiedene Ansätze bekannt, die auf einer händischen Eingabe über eine Mensch-Maschine-Schnittstelle (HMI) seitens des Fahrers basieren.
-
Aus der US 2015 / 0191178 A1 ist ein Kontroll-System für ein Kraftfahrzeug basierend auf einer ID indikativ für ein Profil des Fahrers bekannt, bei dem eine künstliche Intelligenz Anomalien im Fahrverhalten erfasst und der ID zuordnet. Dabei wählt das Kontroll-System einer ID aus einer Mehrzahl von IDs aus.
-
Weitere, derartige System sind z.B. aus der
US 9,663,112 B2 , der
WO 2014 / 102270 A1 , der
US 11,037,378 B2 und der
US 10,950,132 B2 bekannt.
-
Es besteht also Bedarf daran, Wege aufzuzeigen, wie derartige Steuergeräte individualisiert werden können.
-
Die Aufgabe der Erfindung wird gelöst durch ein Verfahren zum Betrieb eines Kraftfahrzeugs, mit den Schritten:
- während einer Trainingsphase Trainieren einer künstlichen Intelligenz mit Trainingsdaten,
- während einer Vorhersagephase Bereitstellen von einem ID-Datensatz durch Beaufschlagen der trainierten künstlichen Intelligenz mit Betriebsdaten des Kraftfahrzeugs, und
- Verifizieren des bestimmten ID-Datensatzes durch Auswerten von personenbezogenen Daten des Fahrers.
-
Die künstliche Intelligenz kann aus Beispielen lernen und kann diese nach Beendigung der Lernphase verallgemeinern. Dazu bauen z.B. Algorithmen beim maschinellen Lernen ein statistisches Modell auf, das auf Trainingsdaten beruht. Das heißt, es werden nicht einfach Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in den Trainingsdaten erkannt. So kann die künstliche Intelligenz auch unbekannte Daten beurteilen (Lerntransfer).
-
Mit anderen Worten, es werden Prognosedaten einer trainierten künstlichen Intelligenz mit weiteren personenbezogenen Daten kombiniert bzw. fusioniert um einen ID-Datensatz zu bestimmen, der dem aktuellen Fahrer des Kraftfahrzeugs zugeordnet werden kann. So kann eine sichere Identifikation des Fahrers ermöglicht werden, was dann eine Individualisierung von einem Steuergerät des Kraftfahrzeugs erlaubt.
-
Gemäß einer Ausführungsform sind die personenbezogenen Daten des Fahrers Daten betreffend ein Stimmprofil, biometrische Daten und/oder Gerätedaten und/oder Nutzerdaten. Die biometrischen Daten können Daten zur Gesichtserkennung, Daten zur Gestenerkennung und/oder Fingerabdruckdaten sein, während die Gerätedaten und/oder Nutzerdaten Nutzerkennungen und /oder Passwörter sein können. So kann auf besonders einfache und zuverlässige Art und Weise durch Auswerten von personenbezogenen Daten die Verifizierung durchgeführt werden.
-
Gemäß einer weiteren Ausführungsform wird basierend auf dem verifizierten ID-Datensatz zumindest ein Parameter eines Ansteuerdatensatzes eines Steuergeräts des Kraftfahrzeugs angepasst. Somit erfolgt ein individueller, an den jeweiligen Fahrer angepasster Betrieb des jeweiligen Steuergeräts des Kraftfahrzeugs.
-
Gemäß einer weiteren Ausführungsform wird die Trainingsphase in einer Cloud durchgeführt. Somit werden besonders rechenintensive Prozesse aus dem Kraftfahrzeug ausgelagert. Entsprechend werden die Rechnerressourcen des Kraftfahrzeugs geschont und damit auch der Energieverbrauch des Kraftfahrzeugs reduziert.
-
Ferner gehören zur Erfindung ein System zum Betrieb eines Kraftfahrzeugs, ein erstes Computerprogrammprodukt für ein Kraftfahrzeug, ein zweites Computerprogrammprodukt für eine Cloud sowie ein Kraftfahrzeug und eine Cloud für ein derartiges System.
-
Es wird nun die Erfindung anhand einer Zeichnung erläutert. Es zeigen:
- 1 in schematischer Darstellung Komponenten eines Systems zum Betrieb eines Kraftfahrzeugs.
- 2 in schematischer Darstellung verschiedene Betriebsphasen des in 1 gezeigten Systems.
- 3 in schematischer Darstellung einen Verfahrensablauf zum Betrieb des in Figur gezeigten Systems 1
-
Es wird zunächst auf 1 Bezug genommen.
-
Dargestellt sind Komponenten eines Systems 2 zum Betrieb eines Kraftfahrzeugs 4.
-
Das Kraftfahrzeug 4 ist im vorliegenden Ausführungsbeispiel ein PKW, wie z.B. ein Elektrofahrzeug mit einer Traktionsbatterie als Energiespeicher (EBV), und wird von einem Fahrer 16 gesteuert.
-
Bei den in 1 dargestellten Komponenten handelt es sich um ein Steuergerät 6 (ECU), eine künstliche Intelligenz 8, einen Fahrzeug-Bus 10, eine Cloud 12 und eine Mensch-Maschine-Schnittstelle (HMI) 14.
-
Das System 2 sowie das Steuergerät 6, die künstliche Intelligenz 8, der Fahrzeug-Bus 10, die Cloud 12 und die Mensch-Maschine-Schnittstelle 14 können für die nachfolgend beschriebenen Aufgaben und/oder Funktionen Hardware- und/oder Software-Komponenten aufweisen.
-
Das Steuergerät 6 ist im vorliegenden Ausführungsbeispiel ein eingebettetes System, das im Kraftfahrzeug 4 angeordnet ist. Das Steuergerät 6 kann z.B. ein Motorsteuergerät oder ein Fahrassistenzsystem des Kraftfahrzeugs 4 sein. Es steuert eines oder mehrere elektrische Systeme oder Teilsysteme in dem Kraftfahrzeug 4.
-
Im Gegensatz zu herkömmlichen Steuergeräten ist das Steuergerät 6 im vorliegenden Ausführungsbeispiel dazu ausgebildet basierend auf einem verifizierten ID-Datensatz ID zumindest einen Parameter P eines Ansteuerdatensatzes AS des Steuergeräts 6 des Kraftfahrzeugs 4 anzupassen.
-
Ferner ist das Steuergerät 6 im vorliegenden Ausführungsbeispiel dazu ausgebildet Daten, wie den ID-Datensatz ID und auch andere Daten, wie z.B. Betriebsdaten BD, in die Cloud 12 drahtlos zu übertragen und/oder drahtlos einzulesen. Mit anderen Worten, das Steuergerät 6 und die Cloud 12 sind zum bidirektionalen drahtlosen Datenaustausch ausgebildet.
-
Die künstliche Intelligenz 8 ist im vorliegenden Ausführungsbeispiel ebenfalls ein eingebettetes System, das ebenfalls im Kraftfahrzeug 4 angeordnet ist. Die künstliche Intelligenz 8 verfügt über die notwendige Rechenleistung und Hardware-Elemente, z.B. CPU oder GPU, RAM, Speicher, CAN, mobile Kommunikation (LTE), und/oder Ethernet-Schnittstelle, um maschinelle Lernalgorithmen in Echtzeit anzuwenden.
-
Ferner ist die künstliche Intelligenz 8 im vorliegenden Ausführungsbeispiel mit der Cloud 12 für einen bidirektionalen und drahtlosen Datenaustausch verbunden. Weitere Details der künstlichen Intelligenz 8 werden später unter Bezugnahme auf 2 erläutert.
-
Der Fahrzeug-Bus 10, im vorliegenden Ausführungsbeispiel ein CAN-Bus, weist eine oder mehrere Schnittstellen auf, die dazu ausgebildet sind, die gesamten Betriebsdaten BD, wie z.B. Eingangs-/Ausgangsdaten zu übertragen. Die Betriebsdaten BD können z.B. GPS-Koordinaten, Lenkradwinkel und/oder Fahr- und/oder Bremspedalstellungen umfassen.
-
Die Cloud 12 ist z.B. ein Rechenzentrum oder ein Netzwerk aus mehreren Rechenzentren, das z.B. über ein Internetprotokoll bidirektional datenübertragend mit einer Mehrzahl an Kraftfahrzeugen 4 und/oder mit einer Mehrzahl von Fahrern 18 verbunden ist.
-
Die Mensch-Maschine-Schnittstelle 14 stellt eine Schnittstelle zwischen dem Kraftfahrzeug 4 und physischen Eingabehardware-Komponenten, wie z.B. Tastaturen, Touchpads, Spracherkennungssystemen, Gesichts- und/oder Gestenerkennungssystemen oder Fernbedienungen sowie Ausgabehardware-Komponenten, wie z.B. Displays und/oder Lautsprechern, bereit.
-
Die Mensch-Maschine-Schnittstelle 14 ist im vorliegenden Ausführungsbeispiel bidirektional datenübertragend mit dem Fahrzeug-Bus 10 verbunden, so dass der Fahrer 16 bestimmte Fahrzeugfunktionen über die Mensch-Maschine-Schnittstelle 14 steuern kann, z.B. die Musiklautstärke, die Soll-Innentemperatur, Navigationsfunktionen, die Fahrmodi usw. Zusätzlich zu den Funktionen einer Mensch-Maschine-Schnittstelle z.B. eines Infotainmentsystems des Kraftfahrzeugs 4 stellt die Mensch-Maschine-Schnittstelle 14 gemäß dem vorliegenden Ausführungsbeispiel eine Funktion zur Verifizierung des ID-Datensatzes ID anhand von personenbezogenen Daten PD bereit.
-
Unter Verifizierung des ID-Datensatzes ID wird dabei die Bestätigung der Zuordnung des von der künstlichen Intelligenz 8 bestimmten ID-Datensatz ID zu dem aktuellen Fahrer 16 verstanden.
-
Die personenbezogenen Daten PD können z.B. sein:
- Fingerabdruckdaten, die mit Hilfe eines Fingerabdruckscanners im Kraftfahrzeug 4, der mit der Mensch-Maschine-Schnittstelle 14 datenübertragend verbunden ist, erfasst und einer Fingerabdruckerkennungssoftware ausgewertet werden.
- Stimmprofile bzw. Daten von Stimmprofilen, die mit einem Mikrofon der Mensch-Maschine-Schnittstelle 14 erfasst und mit einer Spracherkennungssoftware ausgewertet werden.
- Daten zur Gestenerkennung, die z.B. mit Schwarz-Weiß- oder Farbkameras, Infrarotkameras, Stereokameras und/oder LIDAR-Sensoren erfasst und mit einer Gestenerkennungssoftware ausgewertet werden.
- Daten zur Gesichtserkennung, die z.B. mit Schwarz-Weiß- oder Farbkameras, Infrarotkameras, Stereokameras und/oder LIDAR-Sensoren erfasst und mit einer Gesichtserkennungssoftware ausgewertet werden.
- Gerätedaten und/oder Nutzerdaten, insbesondere für Mobilgeräte, wie z.B. Smartwatches, Smartphone, Tabletcomputer, die über eine Schnittstelle, wie z.B. Bluetooth, mit der Mensch-Maschine-Schnittstelle 14 datenübertragen verbunden sind.
- Nutzerkennungen und /oder Passwörter, die vom Fahrer 16 mittels der Mensch-Maschine-Schnittstelle 14 eingegeben werden.
-
Der Fahrer 16 ist eine Person, deren Identität von der künstlichen Intelligenz 8 bestimmt wird. Sobald ein neuer Fahrer 16 von der künstlichen Intelligenz 8 erfasst wird, registriert der Fahrer 16 seine ID über die Mensch-Maschine-Schnittstelle 14, um die o.g. Bestätigungsmethoden nutzen zu können.
-
Es wird nun zusätzlich auf 2 Bezug genommen um den Betrieb des in Figur gezeigten Systems 2 zu erläutern.
-
Das System 2 wird zuerst in einer Trainingsphase I und dann in einer Vorhersagephase II betrieben.
-
Zu Beginn werden die Trainingsphase I und die Vorhersagephase II sequentiell ausgeführt, d.h. nach der Trainingsphase I beginnt die Vorhersagephase II. Im weiteren Verlauf kann jedoch die Trainingsphase I kontinuierlich weitergeführt werden, um die künstliche Intelligenz 8 mit den neuesten Daten zu aktualisieren. Die Trainingsphase I findet in der Cloud 12 und die Vorhersagephase II findet in der künstlichen Intelligenz 8 statt. Dabei können die Trainingsphase I und die Vorhersagephase II zeitgleich bzw. simultan ausgeführt werden.
-
Zur künstlichen Intelligenz 8 gehören im vorliegenden Ausführungsbeispiel neben einem Speicher 18 zur Zwischenspeicherung der Betriebsdaten BD ein überwachter Lern-Algorithmus 20, wie z.B. Fehlerrückführung (backpropagation of error) und ein Autoencoder-Algorithmus 22. Diese Algorithmen werden während der Trainingsphase I in der Cloud 12 trainiert.
-
Unter einem Autoencoder wird dabei ein künstliches neuronales Netz verstanden, das eine komprimierte Repräsentation (Encoding) für einen Datensatz lernt und somit auch wesentliche Merkmale extrahiert. Künstliche neuronale Netze (KNN) weisen eine Mehrzahl künstlicher Neuronen auf, die im Falle tiefer neuronaler Netze in zahlreichen Zwischenschichten (hidden layers) zwischen einer Eingabeschicht und einer Ausgabeschicht angeordnet sind.
-
Der Autoencoder-Algorithmus 22 wird in erster Linie zur Erkennung von Ereignissen und/oder Anomalien in den Betriebsdaten BD eingesetzt. Sobald ein Ereignis und/oder eine Anomalie erfasst werden, wird ein ID-Datensatz ID entsprechend der Datenverteilung in den Betriebsdaten BD erstellt. Dann wird der überwachte Algorithmus 20 verwendet, um gegebenenfalls den ID-Datensatz ID, der dem aktuellen Fahrer 16 zugeordnet ist, aus einer Mehrzahl von ID-Datensätzen für jeden der Fahrer 16 auszuwählen.
-
Autoencoder können unüberwachte Lernmethoden verwenden, die im Allgemeinen dazu verwendet werden, unregelmäßige Ereignisse und Anomalien zu erfassen. Autoencoder sind dafür bekannt, dass sie ungewöhnliche Ereignisse sehr gut erfassen und daher in der Lage sind, solche Ereignisse zu identifizieren. Es sind viele Varianten von Autoencoder-Algorithmen bekannt. Zu den Autoencoder-Algorithmen 22 gehören bspw. Feed-forward-Autoencoder für neuronale Netze, Sequenz-auf-Sequenz-Autoencoder, Adversial-Autoencoder, Convolutional-Autoencoder und Variational-Autoencoder. Jeder wird im vorliegenden Ausführungsbeispiel ein als Sequenz-auf-Sequenz-Autoencoder ausgebildeter Autoencoder-Algorithmus 22 verwendet. Unter einer Sequenz wird dabei ein Abschnitt eines Datenstroms, bestehend aus einer Mehrzahl von zeitlich aufeinander folgenden Daten, verstanden.
-
Verschiedene überwachte Lernalgorithmen können Vorwärts-Netze (feedforward neuronal networks), rekurrente neuronale Netze (RNN - recurrent neural networks), z.B. lange Kurzzeitgedächnisse (LSTM - long short-term memory) und rekurrente Gattereinheiten (GRU - gated recurrent units) und faltende neuronales Netze (CNN - convolutional neural networks) sein. In der vorliegenden Ausführungsform werden rekurrente neuronale Netze in Kombination mit LSTM-Algorithmen verwendet.
-
Als rekurrente neuronale Netze werden neuronale Netze bezeichnet, die sich im Gegensatz zu Feedforward-Netzen durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht auszeichnen. So sind Neuronen der gleichen Schicht oder unterschiedlicher Schichten rückgekoppelt. Durch diese Rückkopplungen lassen sich zeitlich codierte Informationen aus Daten gewinnen. Anstelle von rekurrenten neuronalen Netzen können auch rekurrente Gattereinheiten oder faltende neuronale Netze verwendet werden.
-
Ein LSTM-Algorithmus verwendet Speicherzellen, um Gewichtungsinformationen an die benachbarten Zellen eines künstlichen neuronalen Netzes zu übertragen, die in einem Zeitschritt Informationen verarbeiten. Jede Speicherzelle ist eigentlich ein neuronales Netz, das mindestens eine Schicht mit versteckten Ebenen enthalten kann. Diese Speicherzellen enthalten zusätzlich zu einer versteckten Zustandsvariablen eine Zellzustandsvariable, was einem LSTM-Algorithmus im Vergleich zu anderen rekurrenten neuronalen Netzen robuster macht. Der LSTM-Algorithmus kann auch bidirektional ausgebildet sein, sodass ein Backpropagation-Algorithmus in Vorwärts- und Rückwärtsrichtung während der Trainingsphase I für das Training durchgeführt wird.
-
Es wird nun zusätzlich auf 3 Bezug genommen, um weitere Details des Verfahrensablaufs zu erläutern.
-
In einem ersten Schritt S100 werden erfasste Betriebsdaten BD in dem Speicher 18 der Cloud 12 zwischengespeichert.
-
In einem weiteren Schritt S200 wird der Autoencoder-Algorithmus 22, im vorligenden Ausführungsbeispiel ein Sequenz-auf-Sequenz-Autoencoder, während der Trainingsphase I mit den im Speicher 18 zwischengespeicherten Betriebsdaten BD trainiert. Im vorliegenden Ausführungsbeispiel werden ferner während der Trainingsphase I weitere Betriebsdaten BD in dem Speicher 18 der Cloud 12 übertragen um so die Betriebsdaten BD zu aktualisieren. Der Autoencoder-Algorithmus 22 wird auf ein Erfassen von Ereignissen und/oder Anomalien trainiert.
-
In einem weiteren Schritt S300 wird der trainierte Autoencoder-Algorithmus 22 auf ein Erfassen von Ereignissen und/oder Anomalien in den Betriebsdaten BD ausgeführt. Es wird dann in einem weiteren Schritt S320 geprüft, ob ein Ereignis und/oder eine Anomalien in den Betriebsdaten BD vorliegen. Wenn ein Ereignis und/oder eine Anomalien in den Betriebsdaten BD vorliegen wird das Verfahren mit einem weiteren Schritt S400 fortgesetzt. Wenn kein Ereignis und/oder keine Anomalien in den Betriebsdaten BD vorliegen wird in einem weiteren Schritt S340 geprüft, ob bereits ein den Betriebsdaten BD zugeordneter ID-Datensatz ID vorliegt. Wenn kein den Betriebsdaten BD zugeordneter ID-Datensatz ID vorliegt wird das Verfahren mit dem weiteren Schritt S400 fortgesetzt. Wenn hingegen ein den Betriebsdaten BD zugeordneter ID-Datensatz ID vorliegt wird das Verfahren mit dem weiteren Schritt S800 fortgesetzt.
-
In einem weiteren Schritt S400 wird ein neuer ID-Datensatz ID für einen neuen Fahrer 16 erzeugt.
-
In einem weiteren Schritt S500 wird der Lern-Algorithmus 20 der künstlichen Intelligenz 8 , im vorliegenden Ausführungsbeispiel ein rekurrentes neuronales Netz in Kombination mit LSTM-Algorithmen, mit dem weiteren ID-Datensatz ID während der Trainingsphase I trainiert.
-
In einem weiteren Schritt S600 bestimmt der Lern-Algorithmus 20 der künstlichen Intelligenz 8 während der Vorhersagephase II den ID-Datensatz ID des aktuellen Fahrers 16.
-
In einem weiteren Schritt S700 wird der bestimmte ID-Datensatz ID zu der Mensch-Maschine-Schnittstelle 14 übertragen.
-
In einem weiteren Schritt S800 sendet die Mensch-Maschine-Schnittstelle 14 eine Benachrichtigung, um die Bestätigung des Fahrers 16 über die Mensch-Maschine-Schnittstelle 14 einzuholen. Anschließend wird der bestätigte ID-Datensatz zusammen mit den dazu gehörenden Betriebsdaten BD in die Cloud 14 übertragen, wo sie zum Trainieren der künstlichen Intelligenz 8 verwendet werden.
-
Ferner wird in einem weiteren Schritt S820 geprüft, ob ein verifizierter ID-Datensatz ID vorliegt oder nicht.
-
In einem weiteren Schritt S900 wird der zumindest eine Parameter P des Ansteuerdatensatzes AS des Steuergeräts 6 des Kraftfahrzeugs 4 nicht angepasst, wenn kein verifizierter ID-Datensatz ID vorliegt.
-
Hingegen wird in einem weiteren Schritt S1000 der zumindest eine Parameter P des Ansteuerdatensatzes AS des Steuergeräts 6 des Kraftfahrzeugs 4 angepasst, wenn ein verifizierter ID-Datensatz ID vorliegt.
-
In einem weiteren Schritt S1100 wird ein nicht-verifizierter ID-Datensatz ID gelöscht.
-
Abweichend vom vorliegenden Ausführungsbeispiel kann die Reihenfolge der Schritte auch eine andere sein. Ferner können mehrere Schritte auch zeitgleich bzw. simultan ausgeführt werden. Des Weiteren können auch abweichend vom vorliegenden Ausführungsbeispiel einzelne Schritte übersprungen oder ausgelassen werden.
-
Es werden also Prognosedaten einer trainierten künstlichen Intelligenz 8 mit weiteren personenbezogenen Daten PD kombiniert bzw. fusioniert um einen ID-Datensatz ID zu bestimmen, der dem aktuellen Fahrer 16 des Kraftfahrzeugs 2 zugeordnet werden kann. So kann eine sichere Identifikation des Fahrers 16 ermöglicht werden, was dann eine Individualisierung von dem Steuergerät 6 des Kraftfahrzeugs 4 erlaubt.
-
Bezugszeichenliste
-
- 2
- System
- 4
- Kraftfahrzeug
- 6
- Steuergerät
- 8
- künstliche Intelligenz
- 10
- Fahrzeug-Bus
- 12
- Cloud
- 14
- Mensch-Maschine-Schnittstelle
- 16
- Fahrer
- 18
- Speicher
- 20
- Lern-Algorithmus
- 22
- Autoencoder-Algorithmus
- AS
- Ansteuerdatensatz
- BD
- Betriebsdaten
- ID
- ID-Datensatz
- P
- Parameter
- PD
- personenbezogene Daten
- I
- Trainingsphase
- II
- Vorhersagephase
- S100
- Schritt
- S200
- Schritt
- S300
- Schritt
- S320
- Schritt
- S340
- Schritt
- S400
- Schritt
- S500
- Schritt
- S600
- Schritt
- S700
- Schritt
- S800
- Schritt
- S820
- Schritt
- S900
- Schritt
- S1000
- Schritt
- S1100
- Schritt
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 9663112 B2 [0007]
- WO 2014/102270 A1 [0007]
- US 11037378 B2 [0007]
- US 10950132 B2 [0007]